Capítulo VII: Hacia el Universo Topológico

(1990-1999)

Si bien las teorías de la relatividad nacieron en las dos primeras décadas del siglo que va a terminar, aún el grueso de la humanidad no las comprende; pero sus repercusiones, sin embargo son - por lo contrario - materia de diaria reflexión para los científicos del micro y del macro cosmos, pues las revelaciones que sacó a la luz constituyen la armazón básica sobre la cual se elabora todo el pensamiento cosmológico en lo que corresponde a la materia, el tiempo y el espacio y el involucramiento de la mente y la conciencia en todo el proceso evolutivo ascencional. La cosmología antes de Einstein trataba de partes del Universo; a partir de Einstein se unifica el concepto y el nacimiento (si es que lo hubo), el desarrollo y su desenlace (si es que lo tendrá) pasó ipso - facto a ser el fundamento de la elaboración cosmológica, aunque la gran mayoría de los astrónomos prosiguieron su labor de rutina asidos a los telescopios y radiotelescopios y siendo interrumpida su labor por la teorización en el mundo de la cuántica que se iba desarrollando cerca, pero aparte.

A partir del momento en que la tesis del “Huevo Cósmico” del abate George Lemaitre, adquiere reconocimiento y respetabilidad académicas, la cosmología no habrá de abandonar la mezcla de intuición y empirismo, de metafísica y física que la distinguió en el pasado y siguen siendo su distintivo, hoy día, quizá porque trata una materia muy delicada y sensible, como bien lo reconocen los cosmologistas ,aunque con toda seriedad y objetividad quisieran que así no fuese, pues reniegan de la parte metafísica, aunque esta siga apareciendo velada o abiertamente en sus “predicciones” en sus “generalizaciones”, y en sus proyecciones al distante futuro.

Pero aparte de no ser un simple científico, sino ahora una curiosa mezcla no acabada aún de filósofo, teólogo y teórico de la astronomía que involucra con sus afirmaciones el destino planetario y de la humanidad, el cosmólogo que ya tenía casi resuelto el rompecabezas del Universo con base en un modelo estándar convenientemente modificado con la teoría complementaria inflacionista, se enfrenta ahora a otros dilemas.

Un problema que aqueja a la cosmología es tanto el tener que enfrentar sus propios problemas; en su propio campo, asumiendo la responsabilidad de los resultados, pero compartiendo con especialistas de otras disciplinas su área de trabajo por lo que, desde entonces ya la cosmología no es la misma. Otro problema derivado de ese - pero también del proceso de fusión que invade todo el quehacer científico (porque el problema no es solo en la física) es que ya no hay “parcelas independientes”, ni “cotos de caza privados” ni “compartimientos estancos” en la ciencia cosmológica.

El hombre descubre que el Universo es uno y que la interrelación entre una galaxia, un cerebro humano, una flor, un pedazo de hierro o un virus no es obra de la casualidad como se trató de hacer creer por muchos años por parte de las corrientes materialistas. Si el ser humano “es materia de estrellas”, como afirma el exobiólogo Carl Sagan y estamos hechos de energía (nosotros, el macro y el micro Universo) es obvio que la modalidad de entender, descifrar y describir el Universo requiere del nuevo paradigma del enfoque holístico, pero el científico no se siente cómodo en ese nuevo traje.

Esto significa que a los ya insolubles problemas que demandan la atención de los cosmólogos, se está agregando la presión de muchas personas que desean saber más acerca de las sutiles conexiones entre su sistema nervioso y el entorno cercano; entre éste y el planeta que le alberga, entre la Tierra y el Sistema Solar; y por supuesto entre el Sistema Solar y la Galaxia Local, entre ésta y el cúmulo local en la cual se encuentra inmersa y entre ésta y el Supercúmulo a la cual está ligada. Y también desea saber cómo se conecta con otros supercúmulos y obviamente con el Universo entero y aún - ávido e insaciable - con otros posibles o hipotéticos Universos que ya no son elucubraciones de esotéricos, teósofos, espiritualistas o iluminados, sino que le han sido anunciadas por los propios cosmólogos científicos.

En fin que sin tener explicaciones completas aún y cada vez más complicado el panorama, el bote de la cosmología ha comenzado a “hacer agua”, quizá como lo previera Stephen W. Hawking con el postulado de la “Ignorancia Relativa”, émulo moderno del filósofo griego que decía “sólo sé que no sé nada”.

Pero esa afirmación no es un grito de desencanto, sino más bien un ¡Manos a la obra! y es eso lo que los cosmólogos siempre - sin rendirse han hecho, desde Pitágoras el primer cosmólogo, según narra la historia de Occidente porque recogen ya no solo las inquietudes de los legos que esperan respuestas mágicas de la Cosmologías, sino también las dudas de la física cuántica que se han extrapolado ahora a los modelos cosmológicos. Además el ser humano se preocupa más acerca de lo que ocurrió antes del momento T = O pues la respuesta implica la existencia misma de Dios, o a lo sumo de su voluntad implícita en el Big Bang, y condiciona el presente así como el incierto futuro.

Dicho de otra manera al tocar el cosmólogo el ámbito reservado a la teología: el inicio del inicio - y aún más atrás en el tiempo - al iniciador de la Creación- lo que afirme de ahora en adelante en los modelos, topa con algo más que la curiosidad de los legos: está develando los entresijos en que el “alma” ha permanecido escondida.

Y así como el astrónomo tardó en acomodarse a las nuevas reglas de juego que implica la relatividad einsteniana; el cosmólogo ahora apenas comienza a moverse, con cuidado en el mundo de la incertidumbre que es la física de partículas; lo cual le coloca en un terreno muy diferente pues ha debido pasar del “Telescopio” a los “aceleradores de partículas subatómicas construidos gracias a las predicciones de la Teoría de la Física Cuántica que no tuvo en su nacimiento el “boom” de la espectacularidad que envolvió a las ideas de Einstein; pero cuyas repercusiones son de importancia paralelos (o aún más allá); según piensan algunos físicos.

Consustancialmente la capacidad de ampliación de la única ventana que el planeta Tierra tiene para captar y entender el mensaje del espectro electromagnético, ha entrado en un proceso de crecimiento acelerado debido a la información que aportan las sondas espaciales, los nuevos telescopios y radiotelescopios ubicados en zonas privilegiadas del planeta, dotados de sofisticados instrumentos auxiliares; así como los laboratorios geosincrónicos tripulados y no tripulados, a los que se les ha unido recientemente el Telescopio Espacial Hubble, que pese a su lamentable defecto congénito por un error en el pulido de su lente principal brinda - no obstante - información valiosa, una vez que ha sido reparado.

Además - para hacer más complejo el panorama - la cosmología comienza a ser invadida de nuevas formas de pensar al introducirse tanto los conceptos orientalistas de los “contrarios” (teoría del TAO); como aspectos relativos a la filosofía hinduista de los ciclos de la naturaleza (más conocida entre los cosmólogos como “Teoría Shiva”). Y como corolario el cosmólogo Frank J. Tippler de la Universidad de Tulane, ha publicado la primera teoría físico-matemática que correlaciona el Universo, Dios Creador, la resurrección y el futuro de las almas en una Teoría del Punto Omega, clara reminiscencia -plenamente aceptada por el- de la idea seminal del jesuita Theilhard de Chardin.

Así que las discreciones y reflexiones que a lo largo de los capítulos anteriores han ido matizando el contexto del avance cosmológico, eran un anticipo obligado. En este capítulo el tema a desarrollar será estrictamente cosmológico, para dejar asentado al acercarse el Tercer Milenio cual es -exactamente- el estado del conocimiento en la elaboración de modelos científicos. Como podrá observarse la mayoría de esos modelos son muy ambiciosos, complejos, difíciles de captar con la imaginación sujeta a las leyes de la física conocida y nos van a llevar por rumbos cuasi esotéricos.

COSMOLOGÍA: NUEVA CIENCIA: Un estudio efectuado por Helmuth A. Abt para la revista Sky & Telescope revela que, a mediados de la década de los noventa el número de páginas publicadas en cada artículo que contiene el sumario de las comunicaciones científicas astronómicas ha aumentado a partir de 1910 de una a seis; en el mismo tiempo la cantidad de artículos se aumenta anualmente un diez por ciento y aunque los artículos sobre teoría han crecido desde la primera fecha de un cinco por ciento sobre el total, hasta llegar a un 33% en la década de los noventa la tendencia es a duplicarse cada setenta y ocho años después de la II Guerra Mundial. Se observa asimismo ahora una tendencia a presentar trabajos multidisciplinarios pero con mayor énfasis en el trabajo observacional disciplinario. Por otra parte - desde 1910 - el número de páginas publicadas anualmente (promediando 1000 palabras por cada página) se ha incrementado en un 40%. El tamaño de los artículos ha subido de menos de tres páginas a cerca de doce. El estudio incluye únicamente tres revistas norteamericanas: “Publications of the Astronomical Society of The Pacific ; Astrophysical Journal y Astronomical Journal.Si se agregan publicaciones como Nature, Science, British Astronomical, Physic Today ,para mencionar únicamente las más conocidas en idioma inglés , las cifras de comunicaciones científicas sube en proporciones inimaginables.

Una deducción obtenida con base en la correlación de los datos suministrados por la ADION de Francia durante los primeros años de la década de los noventa permite sacar dos conclusiones: una, que el sumario de comunicaciones científicas asciende a un promedio de 42 páginas y que el número de artículos por año ha aumentado en poco más de veinte por ciento entre 1975 y 1995, para totalizar más de 100 por año.

Si se unen los resultados de ambos estudios es posible concluir que la mayoría (87% de los artículos) son obra de equipos multidisciplinarios, de los cuales más del 94% son de materia observacional; y de éstos un 27% presentan una mezcla entre aspectos propiamente astronómicos con propuestas obtenidas de la física de partículas y solamente un 8% son artículos dedicados a la “ cosmología pura”. Aunque esta no es -ni mucho menos una muestra representativa- sino una aproximación especulativa al menos dos conclusiones pueden derivarse de estos datos:

1) La primera se refiere al aumento del interés por el estudio de la astronomía como carrera universitaria y al involucramiento de los estudiantes con equipos de investigación en las primeras fases de sus carreras, no sólo como incentivo, sino como estrategia de utilización de sus mentes frescas, imaginativas y sin posiciones apriorísticas.

2) La segunda se relaciona con la materia cosmológica propiamente dicha y es que si bien el trabajo académico efectuado en universidades o en institutos afiliados a universidades o a esfuerzos conjuntos de universidades de un mismo país o de varias naciones, se centra en labores astronómicas rutinarias de observación e investigación; el trabajo en el área de la especialización cosmológica propiamente dicha (elaboración de teorías) es una labor paralela, porque ahora debe hacerse con mucha seriedad, dado que lo que comenzó como una especulación matemática o filosófica hoy día tiene ya grado de ciencia.

Esta labor es paralela además, porque los recursos financieros destinados a estos estudios especializados no suelen contar necesariamente con las dotaciones presupuestarias por parte de los políticos, más interesados o en la solución de otros problemas o en la mantención de intereses político - militares.

Otro aspecto que suele afectar el trabajo cosmológico es que de igual manera que sólo público entendido distingue la astronomía de la astrología con cifras que pueden oscilar entre el 5% y el 10%, según se trate de países desarrollados o países no desarrollados, como señala la Sociedad Astronómica Irlandesa en un estudio que data de 1993, y que como dato curioso, agrega que muchos de los planteamientos de la cosmología suelen asociarse con la ciencia - ficción.

Los cosmólogos lo saben y al igual que los astrónomos esta otra ignominia es superable por su desenfado y buen humor, para disminuir - quizá de esta forma - la tensión de saber que sobre sus hombros descansa una responsabilidad que les trasciende en mucho, máxime que desde hace por lo menos dos décadas la prensa mundial ha ido dando más espacio rutinario a la inclusión de noticias provenientes de este mundo, tanto porque hay un serio interés divulgativo, como porque lo que suelen afirmar los astrónomos - cosmólogos son verdaderos “platos fuertes” para esa misma prensa, pues se prestan fácilmente para títulos de carácter sensacionalista.

La aparición de “software” (programas) especializado para computadoras personales (P.C.); de cintas de video en formatos accesibles al público (VHS 3/4 y 1/2 y Beta) que eran las herramientas usuales en la década anterior han cedido paso a las nuevas tecnologías digitalizadas que ahora acompañan el material divulgativo básico las de colecciones de “slides” (transparencias fotográficas) y las fotografías y películas digitalizadas a color con base en técnicas sofisticadas capaces de captar fotones de uno a uno con telescopios personales de gran apertura, ha comenzado a permear el mercado de los "astrónomos amateurs" (aficionados), serios, cuanto el de los Hobbystar desprovistos de conocimientos pero con capacidad adquisitiva. De esta manera la búsqueda de astrónomos y cosmólogos, fuertemente dotados de equipo sofisticado, ya no es su campo de acción privativa, porque la unión de tecnología de punta y mercadotecnica ha permitido la proliferación de la industria del conocimiento de las maravillas del cosmos, pero no como mera contemplación, sino como esfuerzo personal.

El "boom" es de tal naturaleza que -por ejemplo- tan solo dos casos de fabricantes de telescopios (en todas las configuraciones y aperturas), publican mensualmente un total de 10 a 15 páginas "full-color" en la revista Sky and Telescope y el índice de la revista permite constatar que más de la mitad de sus páginas mensuales, están dedicadas a anuncios de venta de toda clase de dispositivos observacionales de nivel sofisticado.

Asimismo ha habido un auge en la construcción de novedosos sistemas de planetarios, museos espaciales, museos científicos y áreas de divulgación especializada debidas al empuje de casas como Omnimax; Spitz Space; Goto, Zeiss; que han revolucionado este campo educativo - por ahora solo accesible a países desarrollados; pero en los próximos diez años al alcance de todos los países, según datos suministrados por expertos en la materia.

También se ha aumentado con fuerza los encuentros antes casuales y hoy como parte de una obligada agenda a la que concurren los cosmólogos para dar conferencias a públicos especializados, o trabajar en mesas redondas o seminarios con el patrocinio de la Unión Astronómica Internacional (UAI); de la NASA, de CESAT, (Europa), o de CCVE (Rusia).

Todo esto lleva a crear un interés muy marcado en la cosmología y aunque el grueso del público no muestra gran interés en conocer cómo se elabora el pensamiento cosmológico actual si existe avidez en conocer la última explicación que ha sido “lanzada al mercado” porque la sed de preguntas sigue sin ser saciada.

El acervo del conocimiento científico durante las últimas dos décadas se ha visto contaminado por la aparición de literatura seudo - científica, que se confunde con la que proviene de la ciencia ficción, en razón del inusitado interés por los asuntos cósmicos, la expectación que despiertan los programas de búsqueda de vida extraterrestre; así como por el influjo de corrientes espiritualistas de corte budista y brahmánico en algunas de las disciplinas científicas.

El impacto de las nuevas ideas, bajo el nombre genérico de New Age es, probablemente, el resultado de la gran incertidumbre en que la ciencia ha dejado al ser humano, sobre todo ante la imposibilidad de procesar y digerir, desde el punto de vista intelectual y emocional, los planteamientos de la física relativista y de la física cuántica. Pero resulta que como toda nueva disciplina científica su nacimiento es una mezcla de planteamiento apriorístico, dudas, expectativas y un cúmulo de datos a la espera de ser ordenados y clasificados de forma coherente.

Al pasar la cosmología de las teorías a los modelos y de estos a las leyes y finalmente, a los principios fundamentales, el panorama deberá aclararse. Por el momento la cosmología sigue estando amarrada a la nueva física, y esta, a su vez al desembarazarse de consideraciones metafísicas provenientes de la teología y la filosofía ha establecido su propia metafísica, con hondo acento reduccionista a veces y en otras haciendo extrapolaciones en otras áreas del conocimiento.

Todo el trabajo de divulgación en el campo de la Cosmología en las décadas anteriores se fundamenta en los hallazgos astronómicos y en las teorías cosmológicas. Pero al convertirse la cosmología en ciencia uniendo las tesis relativistas y las tesis cuánticas se produce un vacío de entendimiento que no afecta solamente a los legos sino a los propios físicos.

Esta capítulo se divide en cuatro áreas: la primera se refiere a nuevos aportes teóricos, así como incluye las polémicas en torno a esto; la segunda se refiere a los nuevos hallazgos observacionales; la tercera nos ubica en la dirección de las investigaciones de la topología del Universo; la cuarta se refiere al problema del tiempo, a sus paradojas teórico-prácticas, así como a un problema concreto: la edad real del Universo y las repercusiones de este problema sobre la validez del modelo B.B.

Por ejemplo la revista Sky & Telescope da a conocer estos datos reveladores: en 1959 del total de astrónomos profesionales; solo un tercio de la comunidad astronómica aceptaba los planteamientos del Big Bang y apenas diez por ciento de ese tercio estaba involucrado en trabajo cosmológico y que para 1994 solamente el cincuenta por ciento de la comunidad científica (de un total de doce mil), manejaba los conceptos “finito” e “infinito”.

En la época bajo análisis y a partir de ella ya sin interrupción de continuidad, emerge gran discusión teórico-metafísica sobre las principales teorías con las que se explican los modelos del Universo. Hemos pasado de la astronomía de posición (astronomía comtemplativa dirían los románticos) a la astronomía de las galaxias y de allí a la astronomía del principio del Universo. Pero los físicos y matemáticos (que les acompañan en el periplo) desean más: ir al inicio del inicio. Y de ese periplo irán a emergen no solo visiones, también mucha teorización que es la argamasa del cosmólogo. De las visiones que emergen en esta época, se escogen unos ejemplos que se matizan con criterios provenientes de los propios físicos:


POLÉMICAS TEÓRICAS

A continuación se explican los aportes teóricos más relevantes que preparan el advenimiento de las visiones cosmológicas de este fin de siglo, aunque se advierte que sus bases se remontan, en algunos casos hasta la década de los ochenta o más atrás; pero como es usual en la ciencia la divulgación de las polémicas entre los teóricos afloran apenas en este tiempo.

TEORÍAS DE UNIFICACIÓN (GUT/TOE) La búsqueda de una fórmula única que explique el Universo es una meta permanente de la ciencia física y ha pasado por estas etapas:

1.- En la Antigüedad se trató de identificar una sustancia o una fuerza única como la proveedora de la vitalidad de todo lo existente conocido y la respuesta fue la Teoría Atomista, que nace como un concepto filosófico y luego termina siendo un concepto físico plenamente demostrado desde fines del siglo pasado.

2.- Al conocerse en el primer cuarto del siglo actual los diferentes constituyentes del átomo, la búsqueda se orientó hacia la explicación unitaria de las diversas fuerzas y desembocó en el concepto de campo primero y campo unitario después, así como se da inicio a conceptos de simetría.

3.- Al comprobarse entre los años cuarenta y setenta la intercambiabilidad entre la materia y la energía la búsqueda desembocará en la investigación de la Supersimetría.

4.- Al tratar el problema del nacimiento del Universo la física se topa con el Muro de Plank que impide en teoría (y en la práctica aún más) conciliar materia, energía y fuerzas lo que hace que en la década de los setenta y ochenta aflore la teoría de la Supergravedad.

5.- A partir de los ochenta la búsqueda se torna muy práctica recurriendo a los aceleradores y superaceleradores de partículas y nacen entre otras ideas: las teorías de los físicos nucleares llamadas Susy, N = 8, o Primos, cada una con sus particularidades distintivas; pero a partir de aquí la búsqueda se vuelve muy teórica, y detrás de cada experimento hay un laborioso trabajo de pensamiento auxiliado por computadoras y supercomputadoras.

6.- De este último intento surgen propuestas muy polémicas, entre ellas: la Teoría de Cuerdas (propuesta entre 1968 - 1970) y su avance más prometedor: la Teoría de Supercuerdas, (propuesta en 1974 - 1981) que busca proveer de una explicación satisfactoria, elegante y sencilla de la geometría y de la topología del espacio - tiempo, así como de las diversas (y al parecer “diferentes”) formas que adoptan sus constituyentes; pero - además - busca dar respuesta satisfactoria a las interrogantes en torno a la aparición del Universo.

Por razones de preferencia algunos físicos se orientan hacia la unificación de las cuatro fuerzas conocidas y ese esfuerzo se conoce como la búsqueda (por diversos caminos téoricos) de la Teoría de la Gran Unificación, en inglés conocida como GUT. Otros físicos en la idea que las cuatro fuerzas son la diferente expresión a diferente nivel energético de una sola y fundamental fuerza llaman a ese intento la búsqueda de la Teoría del Todo (Teory of Every Thing), de la que surge el vocablo TOE.


SUPERFUERZA: Desde hace varios años se conoce la existencia de fuerzas que operan en la naturaleza, cada una por aparte. El estudio de cómo operan en la naturaleza llevó a entender que pueden unirse y así es como hoy día se las distingue en estas interacciones. A cada una de estas fuerzas corresponde una unidad denominada “mensajero”, dotado de masa y carga. Ver anexo al final del libro.

En el proceso de encontrar las vías para unificar estas fuerzas se ha originado una búsqueda en la Gran Unificación (Teoría de la Gran Unificación, conocida como GUT), aunque en realidad hay varias teorías de este tipo (GUTS), como resultado del trabajo pionero iniciado en la década de la setenta por Glashow y Georgi y cada teoría trabaja con familias de 5 partículas. En lo que interesa para la cosmología han surgido estas ideas que involucran la búsqueda de la fuerza única, fundamental, simetría perfecta, que se “quiebra” al originar el Universo para dar paso al Universo conocido; complejo y con fuerzas dispersas, que no es fácil unificar después del nacimiento del Universo:

A.- Interacción Débil: Busca la conexión entre las interacciones electromagnéticas y la fuerza débil (conocida como Q.E.D.). Los aspectos más relevantes de su búsqueda son los siguientes:

1) Los trabajos experimentales iniciados por Gell Mann, en los años sesenta, seguidos por los físicos cuánticos Zweig, Weyl y los trabajos teóricos de Yang, Mills, Abel, Schwinger, Bludman, Glashow, Salam, Ward, Weinberg, Higgs, T'Hooft, que culmina el holandés Martin Veltman, sirve para que en 1973 en el CERN dirigido por Carlo Rubbia, se encuentren gran cantidad de pruebas repetitivas que confirman la interacción de las partículas “mensajeros” de la fuerza electrodébil al estar presente la partícula Z.

2) En 1983 el CERN (Centre Europeen pour la Recherche Nucleare), construye un nuevo acelerador de partículas que encuentra las pruebas de la existencia de las partículas mensajeros W y Z.

3) De ambos experimentos-productos de predicciones teóricas se infieren consecuencias muy importantes; entre ellas que la interacción de estas masas se produjo durante el B. B. cuando la densidad energética (temperatura) del Universo era suficientemente elevada, con lo que las partículas de masa ligeramente inferior a 100 Ge V podían aparecer espontáneamente en forma de pares partícula - antipartícula. En lugar de que el portador de la interacción débil viviera durante el breve instante de tiempo permitido por el Principio de Incertidumbre (Heisemberg), el suministro de energía libre el entorno daría existencia real a cualquiera de esas partículas virtuales alargándose la existencia. Si la masa de una partícula es menor que la energía disponible, puede vivir permanentemente como el fotón por lo que la distinción entre fotón y partículas W y Z se desvanece.

4) A energías suficientemente altas no hay entonces distinción entre interacciones electromagnéticas y débiles. Tal distinción aparece en un Universo frío en que se rompe la simetría y así las partículas W y Z se deshacen cuando una millonésima de segundo después de la explosión (T = 0), la temperatura pasa a ser 10 Kelvin. Desde entonces las interacciones electromagnéticas y la fuerza conocida como Interacción Débil comenzaron a marchar por caminos separados.

B.- Interacción Fuerte: Busca la conexión entre las interacciones electromagnéticas y la fuerza fuerte (conocida como Q.C.D.). Los aspectos más relevantes son los siguientes:

1) Los trabajos teóricos que inicia Gell - Mann en los años sesenta son seguidos por las teorías de Greemberg, Hambu, Han, Glashow, Iliopouolos, Maiani, Fritzch, hasta 1974, año en que en el Laboratorio Brookhaven y Stanford se descubren -simultáneamente- las pruebas de una nueva partícula (PSI) a la que pronto siguieran muchas otras que permitieron descubrir las interacciones de otras partículas del tipo de los leptones.

2) Y hay bases teóricas y empíricas fuertes para entender los mecanismos de la Q.E.D. explicados en el punto anterior pero los mecanismos de la Q.C.D. apenas se iniciaron en años recientes y no hay seguridad respecto a su comportamiento que aguarda nuevas experiencias en los aceleradores de partículas.

C.- Interacción Débil + Interacción Fuerte: Busca la interacción entre Q.E.D. y Q.C.D. Los aspectos más relevantes son los siguientes:

1) Un paso a dar es la combinación de la interacción débil (Q.E.D) y la interacción fuerte (Q.C.D.).

2) Aún cuando se logre, todavía queda por fuera la gravedad.

3) Por ahora no queda más posibilidad que tratar de llevar las teorías unificadas (GUT) al laboratorio de la Naturaleza; precisamente a la Gran Explosión, lo cual lo convierte de un trabajo de experimental, en teórico nuevamente. Para ello se ha iniciado la llamada búsqueda de la Supersimetría.


SUPERSIMETRÍA: Es una teoría específica para ser aplicada al inicio del origen sobre el Universo. En esa época - a juicio de los físicos: brillante, impetuosa, sencilla, sin dobleces; simple, pero luego, durante el proceso que provoca el B. B. perdió esas características: el Universo nació, maduró, se complicó. En el principio era la simetría sencilla, perfecta; luego - se hizo asimétrica, con niveles de estructuración con sus propias leyes, todo se complicó. Los cosmólogos teorizan acerca de las características de las partículas durante la época de la supersimetría: las partículas S o S-partículas.

a) El conjunto de leyes que dominan la materia (bajo la Teoría Estandard de la Física Cuántica) dan cuenta de la existencia de una economía energética en que todo está compuesto por fermiones que interaccionan uno con otro mediante el intercambio de otras partículas - mensajeros: los bosones. Por su parte los feriomes tienen varias identidades; igual sucede con los bosones mensajeros, según asuman alguna identidad; por ejemplo en la fuerza electromagnética y en la gravedad actúan en distancias largas. El modelo estándar predice como funcionan estas cuatro fuerzas, pero (excepto en el caso del electromagnetismo y de la fuerza nuclear débil) no ha predicho como están conectadas.

b) Una clave para encontrar esas conexiones es el concepto de simetría utilizado por el modelo estándar: a) las cuatro fuerzas tienen simetría direccional propia, independientemente de su localización en el espacio; b) las fuerzas electromagnéticas tienen cargas simétricas que se comportan igual, el cambio de cargas positivas por cargas negativas no hace ninguna diferencia; c) en el caso de la electricidad y el magnetismo se comportan igual y pueden ser intercambiables y obedecer así las mismas reglas. En consecuencia se esperaría encontrar una gran simetría entre las cuatro fuerzas; pero no ocurre así; aunque todas tengan el mismo origen y desde el inicio de la década de los setenta quedó evidenciado algo común: hay no una simetría: hay una asimetría más bien.

c) Se trata de la asimetría entre fermiones y bosones, ya que aunque tienen propiedades similares: masa y carga; sin embargo sus funciones son diferentes. De aquí nació la teoría de la supersimetría (SUSY) que establece que para cada función hay otro fernión que le corresponde, pero es oculto y se comporta como bosón; y para cada bosón, hay otro bosón que le corresponde, pero es oculto y se comporta como fermión. Estas partículas ocultas (sibilinas) se denominan “superpartner” (supercompañeras) o S-partículas y la interrelación entre ellas se denomina Supersimetría. Con esta teoría lo que parecía un amasijo de partículas y de fuerzas sin relación entre si tomó forma: todas las partículas y sus fuerzas que parecen corresponder a cosas diferentes son, en realidad manifestaciones diferentes de una sola: la simetría perfecta universal inicial (puesto en términos metafísicos: “lo múltiple como manifestación de lo uno” implica no sólo a las partículas sino a su escenario: el espacio-tiempo.

d) En el Universo inicial cada una de las cuatro fuerzas tenía un comportamiento similar; eran partes simétricas de una sola fuerza; de lo que se desprende otra consideración metafísica: siendo similares las cuatro, eran en realidad una sola; de lo que se deriva que el nacimiento del Universo en el B. B., fue la ruptura de la Fuerza única: la Simetría Perfecta y esto plantea una paradoja: la creación del Universo rompe el orden y crea el caos, lo que es un concepto contrario a lo que siempre se ha afirmado; pero que - en la práctica lleva a la diversidad, en razón de la complejidad evolutiva; en donde la gravedad y la entropía se anteponen para permitir la ascensión de la vida. Y la ascensión no es el resultado del azar y la necesidad - aunque jueguen su papel, sino de la información existente en la materia, es decir en cada partícula y subpartícula elemental, que luego dará emergencia a la conciencia.

e) Tal pareciera que la Teoría de la Supersimetría permite hacer especulaciones metafísicas que incluyen el Alfa (Simetría Perfecta), propician el Universo y nuevamente llevan a la otra manifestación del inicio pero al final del proceso el Omega. Pero también curiosamente la organización es un proceso que se abre paso a través de la complejidad, como si se tratara de una homoestasis universal, que deja el campo libre para modificaciones locales, episódicas; pero que en su conjunto se autoregula, porque el Universo es autocontenido aunque no tenga limites.

SUPERGRAVEDAD: Los físicos de la CERN trabajan con un modelo experimental especial de GUT, tipo SUSY que se centra en la gravedad, conocido como Supergravedad (o N = 8) y su variante se conoce como PRIMOS. Sus caracteríscticas son las siguientes:

a) Estos físicos señalan que N = 8 explica todo: fuerzas, partículas materiales y geometría del espacio - tiempo de una vez. Lo interesante es que N=8 no solo es normalizable, sino autonormalizable y da simples respuestas finitas a las preguntas que se plantean los físicos.

b) Esto hace que estos físicos estimen que se está cerca de cumplir un sueño de Einstein de hace más de sesenta años para expresar, el Universo en una ecuación de campo que unifica las fuerzas en un espacio - tiempo curvo. Cuando Einstein expresó la Relatividad General lo hizo utilizando cuatro dimensiones (tres del espacio, ya clásicas y le agregó el tiempo como cuarta). En 1919 el físico Theodor Kaluza, en Alemania escribió las ecuaciones de Einstein que explicaban la fuerza de la gravedad en función de la curvatura del continuo espacio - tiempo tetradimensional, pero lo hizo usando una quinta dimensión y descubrió - luego - que se trataba de las ecuaciones del electromagnetismo de Maxwell.

c) Kaluza había unificado la gravedad y el electromagnetismo y este último, parecía ser simplemente la gravedad operando en la quinta dimensión. En 1926, Oskar Linde físico sueco incorporó la idea de Kaluza a la Teoría Cuántica, en la ecuación de Schrödinger que consta de cuatro variables y a la que agregó una variable más. Descubrió que las soluciones demostraban ondas - partículas que se desplazan bajo la influencia de los campos del electromagnetismo y de la fuerza gravitacional. (Estas teorías fueron olvidadas porque no conociéndose más fuerzas con las cuales operar, todo parecía un artificio matemático y la única “salida” era invocar más dimensiones añadiendo variables a las ecuaciones para incluir los efectos de los nuevos campos y sus portadores, descritos todos por los mismos efectos geométricos que la gravedad (Por ejemplo: un fotón sería una ondulación en la quinta dimensión, una partícula Z, una ondulación de la sexta dimensión y así sucesivamente).

d) Pero en realidad ahora los físicos han comenzado a operar con la supergravedad (teoría N = 8) y sucede que en la versión matemática más sencilla se requiere once dimensiones. Esto es: la superfuerza es explicable con una teoría que requiere once dimensiones (las 4 del espacio - tiempo clásico einsteniano y siete dimensiones adicionales). Para el físico Israel. Salam esta geometrización del mundo de las partículas y campo, abre un fértil campo de teorización. Bajo esta nueva visión, se postula que el Universo tiene estas condiciones al inicio:


SUPERCUERDAS: A raíz de estos planteamientos se han esbozado ramificaciones de la teoría. Así, por ejemplo se plantea la llamada “Teoría de Cuerdas” ( que en la década anterior algunos confundían con la existencia de Cuerdas o Cordones Cósmicos macro que son limites aun no explicables ) en que las partículas en ese estado no estaban juntas, sino como especie de cuatro cuerdas unidimensionales “que se desplazan en un espacio - tiempo hiperdimensional”. Otra versión más sofisticada es la “Teoría de las Supercuerdas”, en que la presentación de la materia es arrollada o compactada sobre sí misma en un espacio decadimensional (10 dimensiones).

En esa línea la Teoría de Supercuerdas no sólo sería una búsqueda más de TOE (esto es de una teoría del "todo" o "Theory of Everything"), que sería más ambiciosa que la búsqueda de la GUT ("Grand Unification Theory") también sería la unificación del conocimiento de la física; en otras palabras la unificación del conocimiento, porque busca relaciones básicas, fundamentales entre las diversas pautas que muestra la naturaleza; pero todavía más: se pretende encontrar la explicación sin necesidad de recurrir a experimentos, partiendo de la idea que éstos, en última instancia lo que aportan son “mediciones convencionales”, de los fenómenos observados, lo que a la Teoría de Supercuerdas en el campo deductivo. En menos palabras: se pretende encontrar el principio fundamental jerárquico que gobierna al Universo y condensarlo en una sola fórmula tan sencilla como lo fue en su tiempo E = Mc2.

Ahora bien, el esfuerzo de la Teoría de Supercuerdas no es sencillo porque al pretender trascender los límites alcanzados por las teorías antecesoras (pero también complementarias): superfuerza , supersimetría , supergravedad , también hay otros límites operacionales propios del instrumental matemático al pretender con los conceptos de finito e infinito, limitado e ilimitado, así como también para tratar con fenómenos clásicos y fenómenos “cuantizados”, y con el surgimiento de “anomalías” cuando se trata de “acomodar” diversas formas de medición dentro de conceptos unitarios, o bien cuando se trata con el tema de las dimensiones, dado que ciertas ecuaciones trabajan bien cuando se les formula en once dimensiones, o en cinco, pero no cuando se les maneja en siete o en nueve, por ejemplo; o también para tratar del tema de los “taquiones” que violarían el principio de la limitación de la velocidad de la luz (en el vacío), o bien de los hipotéticos "gravitones".

Originalmente la idea de que las concentraciones de materia a nivel subatómico (particular), en realidad podían ser consideradas como cuerdas o lazos cerrados sobre sí mismos, la formuló el físico de partículas italiano Gabriel Veneziano en 1960, pero luego la teoría se abandonó. Los físicos John Scharz y Joel Scherk, la rescatan en 1968 y la reformulan en una ecuación que requiere 36 dimensiones, que luego queda reducida a 10, de las cuales 4 son conocidas y las 6 restantes - teorizan - han quedado “curvadas sobre sí mismas” en un punto tan pequeño (10-33cm.) que pasa desapercibido.

Sin embargo es necesario reconocer, al menos, cuatro esfuerzos teóricos previos que sirven de base al planteamiento de Veneziano:
a) en 1830 el físico inglés Michael Faraday establece la interrelación entre dos fuerzas aparentemente distintas: la electricidad y el magnetismo,
b) en 1850 el físico alemán Maxwell formula la ecuación que las unifica;
c) en 1921 el matemático alemán Theodor Kaluza decide escribir la ecuación de campo de la gravitación de Einstein no en cuatro, sino en cinco dimensiones y obtiene de una sola teoría la unificación matemática del electromagnetismo y la gravedad;
d) finalmente en 1926 el físico sueco Oscar Klein explica que la quinta dimensión planteada por Kaluza no es visible ni detectable porque se encuentra enrollada sobre sí misma en un punto increíblemente pequeño que calculó en 10-30cm.

En el desarrollo más aceptado de la teoría (en estas épocas) es debido a John Scharz y Michael Green (1984) que se plantea que las vibraciones de las cuerdas pueden calcularse en 496 diferentes modos, y esto significa la existencia de 496 cargas energéticas, las que darían origen, a su vez, en su expresión geométrica, a 496 partículas que al comportarse espacialmente de diferente manera pueden ser medidas algunas y otras aún no.


Las posibilidades de dar comprobación en los aceleradores de partículas a estos cálculos matemáticos dependen de la cantidad de energía que debe emplearse para su calibración. Para la década de los noventa la capacidad instalada sólo permite medir partículas de baja carga (no más allá de 100 GeV, - gigaelectronvoltios), mientras que se calcula que la medición de todas las eventuales 496 partículas predichas requiere una energía de 1019 GeV (gigaelectronvoltios). Eso significa la reproducción de la energía existente en el Big Bang, lo que - obviamente - está fuera del alcance de los conocimientos actuales.

A la fecha los físicos que marchan a la cabeza del desarrollo de la teoría son, entre otros: John Schwarz, Edward Witten, Michael Green, David Gross, John Ellis, Abdus Salam y Steven Weinberg, la mayoría norteamericanos e ingleses. Independientemente de sus disímiles esfuerzos teóricos, estiman que este es el esfuerzo más conspicuo de la física en toda la historia y piensan que de lograrse la unificación de la física, por esta vía (u otras alternas que pueden surgir) se iniciara el verdadero conocimiento del Universo.

En su expresión más sencilla la Teoría de Supercuerdas parte de estos principios:

1) La materia que se observa, las fuerzas que se atraen o repelan la materia, la energía que es intercambiable con la materia o viceversa, la interrelación entre la energía y materia con el espacio y con el tiempo, obedecen a una forma de observar, capturar, interrelacionar y medir los aspectos fenoménicos de la naturaleza. Para cada fenómeno se ha establecido - por convención - medidas que dan cuenta de una particularidad de ese fenómeno y esto ha dado origen a especializaciones del conocimiento (y particularmente a especializaciones dentro de la física).

La capacidad de conocer está en relación directa con la capacidad de medir, de comparar y de esta manera se ha ido cada vez a más profundidad que es lo que en última instancia integra cada fenómeno en su nivel más básico.

2) Las cuerdas serían objetos de aproximadamente 10-13 centímetros (increíblemente pequeñas, porque si se les compara con el tamaño de un núcleo atómico serían 1020 más pequeñas que aquellas). Esta cuerdas estarían cerradas sobre sí mismas, vibrando en diez dimensiones, de las cuales cuatro pueden ser accesadas por la vía de los fenómenos que producen y las restantes dimensiones no serían accesables. En el proceso de reconciliación de la teoría de la gravedad al mezclarse con los conceptos de la teoría cuántica matemáticamente se obtienen expresiones y resultados carentes de sentido (o bien infinitos, o violatorios de los principios básicos de la física); pero por medio de la introducción de las expresiones matemáticas de las supercuerdas se obtienen (a partir de 1982) resultados razonables y lógicos y con expresiones finitas.

3) En la teoría hay posibilidad de trabajar con cuerdas con extremos libres, o en cuerdas enrolladas sobre sí mismas en distancias calculadas en 10-33cms. (longitud de Plank) y esta última versión es la más promisoria; porque además muestra la característica de que no presenta anomalías al quebrarse la simetría cuando la teoría pasa por la fase de cuantización. Hasta finales de 1995 los teóricos que trabajan en supercuerdas no han logrado, sin embargo, tener una sola expresión de la teoría y así hay varias aproximaciones (E8xE8 ; SO32; como la llaman los físicos) y algunas de estas versiones son “heteróticas” y otras son “no heteróticas”, pero se piensa que del total de sus versiones de la teoría, en realidad se pueden reducir a una sola: solo es cuestión de cálculos y se estima que para los primeros años del siglo venidero la teoría estará terminada.

4) Las cuerdas enrolladas sobre sí mismas vibran, rotan, oscilan y según se capte o mida cualesquiera de estos fenómenos se está midiendo un comportamiento que se capta como si fuera distinto. Por ejemplo: el electrón es una cuerda vibrando; un quarks es una cuerda vibrando de otra forma, un gravitón es una cuerda vibrando de otra manera, y en algunos casos la vibración no es perceptible. Se estaría de frente a materia no observable pero que sí existe (la materia oscura que lleva el Universo, sería un caso). Se sabe que los quarks, los leptones se reúnen en familias de tres y no se conoce la razón para que así ocurra, pero con la teoría de supercuerdas se calcula con sencillez que el número de familias es una propiedad resultante de la forma que toma la mitad del "número de Euler", en el espacio enrollado de seis dimensiones, lo que para algunos físicos es una comprobación observacional de la teoría.

5) Un aspecto sorprendente de la teoría es la interrelación de los resultados según los métodos de cálculo. Así se ha afirmado que la teoría es única pero - por razones no conocidas - se puede obtener cálculos concretos según sea la forma de aproximación que se emplee para resolver las ecuaciones. Y ¿por qué ocurre esto? es una pregunta aún sin responder de allí que se haya comenzado a emplear artificios matemáticos como el esquema de la “teoría de la perturbación” y se esté profundizando más y más en la línea de desarrollo matemático para entender mejor la realidad que subyase tras la teoría. En última instancia, para los investigadores el límite es la matemática, el límite de la matemática es su “tractabilidad” y el límite de esta característica es la mente humana.

La teoría de supercuerdas obliga, como planteo deductivo, a tomar como punto de partida la idea de que el Universo inicial tenía treinta y seis dimensiones, luego por un proceso de compactación desconocido pasó a tener diez que también se compactaron en seis y finalmente sólo cuatro son conocidas por la mente humana. Y a partir de esta aceptación se derivan otras afirmaciones igualmente sorprendentes.

A principios de 1988 el físico inglés Paul C.W. Davies y el periodista científico Julian Brown de la BBC, entrevistaron a varios físicos partidarios de la teoría de supercuerdas y a otros fuertes opositores a esta.

La crítica más fuerte la hizo el físico de partículas norteamericano Sheldon Glaswow quien - entre otras afirmaciones - señaló que esta teoría “era el resultado de la desocupación de algunos físicos frente al problema de la paralización de recursos financieros dedicados a la investigación experimental” y agregó además que era muy cauteloso para no permitir que en la Cátedra de Física de la Universidad de Harward penetraran ideas “naive”, “tan contagiosas como el SIDA” a las que eran afectos algunos “ideólogos” de las supercuerdas (en una alusión directa a los físicos del Instituto Tecnológico de California (Caltech), en la cual enseña John Schwrz. Sin embargo, dejando de lado el aspecto sarcástico envuelto en la crítica, interesa rescatar algunas de las ideas de otro fuerte opositor, el físico norteamericano de partículas Richard Feymann quien plantea estas observaciones:

1.- “La elaboración teórica en la física está degenerándose” y en particular “la teoría de supercuerdas carece de sentido”. Cuando una idea no calza con los experimentos se debe desechar, pero no ocurre así con esta teoría, que se arregla para que luego con explicaciones “a posteriori se cocina una explicación”.

2.- Si se utiliza un método para que ofrezca seis dimensiones ocultas, porque, no, por ejemplo “siete”; eso significa falta de rigor matemático.

3.- Si hay un “gran principio fundamental debajo de todo”, como plantea la teoría, debe demostrarse empíricamente; si no siquiera debe formularse, eso ya no es física, pero cada quien es libre de hacer lo que desee....

4.- En la física teórica la idea es probarse a uno mismo, en el menor tiempo posible que una teoría es errada; pero aquí de lo que se trata es de tomarse toda la libertad para reacomodar las explicaciones cuando las pruebas no confirman los supuestos teóricos.

5.- El hecho de que la teoría permita dejar de lado el problema de resultados infinitos, cuando se trata de unificar las otras fuerzas con la gravedad, y que ha sido tomado como “prueba de la verdad de la teoría”, no es suficiente, porque hay muchas y no una sola forma de obtener esos resultados.

6.- En cualquier rama de los conocimientos físicos bien establecidos, en los que la teoría se confirma con la experiencia es posible hacer “predicciones de carácter local”; pero en el caso del inicio del Universo no es posible entenderlo en su totalidad, aplicando todas las leyes conocidas, porque la cosmología debe agregar algo que no está teorizado y comprobado: ¿cómo comenzó todo?.

7.- La razón de lo anterior es porque quizá las leyes de la física son incompletas, o quizá porque las leyes de la física cambian con el tiempo; que la fuerza de gravedad - por ejemplo - posea como propiedad que el inverso del cuadrado de la distancia (ley de Newton) no sea inalterable, sino que se aumenta en razón de como operaba desde el inicio del Universo.

8.- Es posible que todo el conocimiento físico debe completarse con algún planteamiento que permita conocer como comenzó el Universo, pero eso es un aspecto externo a las leyes de la física. Y bien puede ser que las leyes conocidas simplemente sean “incompletas” o estén parcialmente formuladas; pero lo cierto es que si se las formule para que sean utilizables en todo tiempo con la historia del Universo, no sea necesario, entonces, agregar “ningún planteamiento externo”.

9.- Uno de los problemas que más confusión causan es la aplicación de planteamientos matemáticos para referirse a las cosas reales, al Universo, por ejemplo. Y este problema es que al referirse a relaciones matemáticas que se comprueban mediante la física, aflora una duda: ¿existen “realmente estas relaciones matemáticas” y de ser así, en dónde?

La física describe las leyes que rigen el Universo: observa, analiza y predice los fenómenos que se producen en el mismo. La matemática que enmarca, con su lenguaje propio, las construcciones mentales y analiza sus relaciones, pero sin interés aparente por los objetos y los fenómenos del mundo observable. Pero no siempre se ha dado esa tajante división entre física y matemática.

A partir de Galileo, la matemática ha constituido el lenguaje de la física. Más aún. Desde el siglo XVII y hasta el siglo pasado, una y otra ciencia han progresado de la mano. Newton, Leibniz, Euler, Lagrange, Hamilton y Gauss entre otros, hicieron importantes contribuciones en física y en matemáticas. Newton, por ejemplo, inventó el análisis con el fin de disponer de un instrumento adecuado para describir el movimiento de los cuerpos. Pero, mediado el siglo XIX, las matemáticas se refugian cada vez más en la abstracción pura, y las dos ciencias empiezan a evolucionar por caminos separados.

En el primer tercio del siglo XX aparecen dos grandes teorías físicas: la relatividad y la mecánica cuántica. Ninguna de las dos precisó crear un andamiaje matemático para su descripción. Se sirvieron de estructuras geométricas preexistentes. La teoría de la relatividad se apoyó en el cálculo tensorial; la física cuántica, en la teoría de los espacios de Hilbert. Pese a su origen puramente abstracto, la aplicación de estas matemáticas dio lugar a innumerables predicciones, que se observaron luego en la naturaleza.

Se vino siguiendo en ese proceder hasta los años ochenta, en que surge una nueva interrelación, atisbada, sin embargo, ya en los años cuarenta, en los albores de la teoría cuántica de campos. El giro consistirá en que las estructuras del lenguaje de las teorías cuánticas de campos pueden generar y desarrollar nuevos aspectos de la matemática. La topología será la rama principalmente implicada, y corresponderá a las teorías cuánticas de campos topológicas el papel protagonista.

La topología estudia propiedades globales de los conjuntos de puntos que son invariantes bajo deformaciones continuas.

Ahora bien, las leyes de la física se definen en un espacio y un tiempo continuos. La física debe recurrir, pues, a un sustrato similar a la topología. Sin embargo, las leyes de la física suelen tener un carácter local, que se contrapone al carácter global de las propiedades topológicas. Parece, por tanto, sorprendente cualquier relación entre la física y la topología.

Pero la hay. El origen de esa relación se inicia en 1959, cuando Yakir Aharanov y David Bohm propusieron un experimento del que se deduce que las propiedades globales del espacio son importantes a la hora de describir procesos de naturaleza cuántica (que desde su observación experimental en 1960 por R.G.Chambers se denomina efecto Abaranov-Bohm) que no tenía análogo en la física clásica. Considérese la situación en que un haz de electrones se bifurca, pasando por ambos lados de un solenoide perpendicular al plano donde esas partículas se propongan, e incide sobre una pantalla. Comparemos las señales producidas por los electrones al colisionar con la pantalla, llamadas franjas de interferencia, cuando por el solenoide circula una corriente eléctrica y cuando no. Observaremos que se produce un desplazamiento de las franjas de interferencia cuando se conecta el solenoide.

La física clásica carece de explicación para el efecto Aharanov-Bohm. Ocurre que, si el solenoide es muy largo, crea un flujo de campo magnético a lo largo de la figura, de suerte tal que el campo eléctrico y el magnético son nulos en la zona por donde se propagan los electrones. De acuerdo con las ecuaciones de Maxwell, las ecuaciones clásicas del electromagnetismo, si ambos campos son nulos, las partículas cargadas -los electrones portan carga negativa- no sufren ningún efecto. Afirmación que se ve desmentida por la observación experimental. Para explicar el efecto Aharanov-Bohm hemos de acudir a la física cuántica.

Del efecto Aharanov-Bohm se obtienen dos conclusiones que marcan la pausa de la relación entre física cuántica y topología. Por un lado, la conveniencia de generalizar conceptos físicos en situaciones donde la topología del espacio no es sencilla: dicho con precisión técnica, el potencial electromagnético corresponde a una conexión de un fibrado principal. Por otro lado, la física cuántica conduce a consecuencias observables gracias a las característica topológicas del espacio; para un flujo magnético dado, el desplazamiento de las franjas de interferencia en el efecto Aharanov-Bohm es independiente de la extensión de la zona excluida, siempre que ésta no sea nula, o lo que es lo mismo, la topología del espacio es la responsable de que se observe dicho desplazamiento.

Tras el descubrimiento del efecto Aharanov-Bohm, la incidencia de la topología y de la geometría diferencial en el avance de la física ha sido determinante, desde los monopolos magnéticos hasta la teoría de cuerdas. El modelo estándar de la física que describe tres de las interacciones fundamentales de la naturaleza -fuerte, débil y electromagnética- está formulado en términos de “teoría de aforo”, una generalización del electromagnetismo. Las teorías de aforo generalizan la simetría de aforo antes expuesta. Esta generalización asocia un grupo a dicha simetría.

La cuarta de las fuerzas fundamentales, la interacción gravitatoria, se ha resistido todavía a una descripción cuántica. La formulación clásica de la gravedad puede entenderse también como una teoría de aforo. Pero su formulación cuántica constituye uno de los grandes problemas a los que se enfrenta la física teórica. Para resolverlo se han abierto dos vías de investigación:
a) la revisión de los métodos de estudio de la teoría cuántica de campos ,
b) la profundización del estudio de las teorías de cuerdas y de supercuerdas. Si la solución se hallara escondida en la segunda vía, tendríamos un marco unificado de las cuatro interacciones fundamentales. Quizá la raíz última de la dificultad estriba en que no se dispone de las estructuras matemáticas adecuadas.

Hemos insistido en el protagonismo desempeñado por las teorías cuánticas de campos topológicas en la nueva relación entre la física y las matemáticas. El desarrollo de la física teórica había venido utilizando el lenguaje de una matemática preexistente. Este lenguaje había permitido deducir consecuencias cuya verificación experimental instó el diseño de grandes experimentos, a través de los cuales, a su vez, emergieron y crecieron muchas disciplinas dentro de la física y de la ingeniería.

En la década de los ochenta se cambian los papeles: las teorías cuánticas de campos topológicas (física) crean un lenguaje que permite obtener muchas consecuencias en el marco de la topología ( matemática). Este lenguaje comienza a denominarse “matemáticas teóricas”. La demostración rigurosa de las consecuencias que origina constituye al análogo a la verificación experimental aludido anteriormente. El desarrollo ulterior de otras disciplinas de la física y de la ingeniería se corresponderá con el desarrollo que se produzca en las matemáticas encaminado a dotar al nuevo formalismo del rigor adecuado.

Aunque se está en el comienzo de esta nueva forma de evolución, llegan ya los primeros resultados en tal dirección. Quizás en el futuro habrá un nuevo intercambio de papeles, y el nuevo lenguaje matemático, construido a partir de la abstracción física, sea el marco adecuado no sólo para establecer con rigor la teoría cuántica de campos, sino también para establecer los fundamentos de las teorías de cuerdas o de la teoría cuántica de la gravedad. Cualquier adelanto en esos dominios supondría un gran avance en el estudio de la unificación de las cuatro interacciones fundamentales.

1) Nació en un estado de once dimensiones en el que no se distinguirían fuerza y materia, algo así como un “estado puro de energía uncadimensional”.

2) Al disiparse, algunas de las dimensiones se plegaron sobre sí mismas creando unas estructuras que llamamos materia: “las partículas” y otras que serían las manifestaciones visibles de la geometría subyacente: las fuerzas de la naturaleza: “las ondas”.

3) Para que la heptasfera se rompiera y revelara las diez dimensiones espaciales se requirió de una energía mayor que la que podría exhibir la gran unificación de fuerzas.

4) Se requirió la colosal energía de la propia creación.

HACIA LA TEORÍA CUÁNTICA DE CAMPOS

La física describe las leyes que rigen el Universo: observa, analiza y predice los fenómenos que se producen en el mismo, pero precisa, de la matemática que enmarca con su lenguaje propio las construcciones mentales que prevén los cosmólogos y analiza sus relaciones, pero sin interesarse por los objetos y los fenómenos del mundo físico, porque ese mismo lenguaje matemático puede emplearse bien para describir un fenómeno observado, bajo características conocidas; o bien para describir un fenómeno hipotético pero con características muy diferentes.

A partir de Galileo, la matemática ha constituido el lenguaje de la física. Más aún. Desde el siglo XVII y hasta el siglo pasado, una y otra ciencia han progresado de la mano. Newton, Leibniz, Euler, Lagrange, Hamilton y Gauss entre otros, hicieron importantes contribuciones en física y en matemáticas. Newton, por ejemplo, inventó el análisis con el fin de disponer de un instrumento adecuado para describir el movimiento de los cuerpos. Pero, mediado el siglo XIX, las matemáticas se refugian cada vez más en la abstracción pura, y las dos ciencias empiezan a evolucionar por caminos separados.

En el primer tercio del siglo XX aparecen dos grandes teorías físicas: la relatividad y la mecánica cuántica. Ninguna de las dos precisó crear un andamiaje matemático para su descripción. Se sirvieron de estructuras geométricas preexistentes. La teoría de la relatividad se apoyó en el cálculo tensorial; la física cuántica, en la teoría de los espacios de Hilbert. Pese a su origen puramente abstracto, la aplicación de estas matemáticas dio lugar a innumerables predicciones, que se observaron luego en la naturaleza.

Se vino siguiendo en ese proceder hasta los años ochenta, en que surge una nueva interrelación, atisbada, sin embargo, ya en los años cuarenta, en los albores de la teoría cuántica de campos. El giro consistirá en que las estructuras del lenguaje de las teorías cuánticas de campos pueden generar y desarrollar nuevos aspectos de la matemática. La topología será la rama principalmente implicada, y corresponderá a las teorías cuánticas de campos topológicas el papel protagonista.

La topología estudia propiedades globales de los conjuntos de puntos que son invariantes bajo deformaciones continuas.
Ahora bien, las leyes de la física se definen en un espacio y un tiempo continuos. La física debe recurrir, pues, a un sustrato similar a la topología. Sin embargo, las leyes de la física suelen tener un carácter local, que se contrapone al carácter global de las propiedades topológicas.


Del efecto Abharanov-Bohm se obtienen dos conclusiones que marcan la pausa de la relación entre física cuántica y topología. Por un lado, la conveniencia de generalizar conceptos físicos en situaciones donde la topología del espacio no es sencilla: dicho con precisión técnica, el potencial electromagnético corresponde a una conexión de un fibrado principal. Por otro lado, la física cuántica conduce a consecuencias observables gracias a las característica topológicas del espacio; para un flujo magnético dado, el desplazamiento de las franjas de interferencia en el efecto Abharanov-Bohm es independiente de la extensión de la zona excluida, siempre que ésta no sea nula, o lo que es lo mismo, la topología del espacio es la responsable de que se observe dicho desplazamiento.

Tras el descubrimiento del efecto Abharanov-Bohm, la incidencia de la topología y de la geometría diferencial en el avance de la física ha sido determinante, desde los monopolos magnéticos hasta la teoría de cuerdas. El modelo estándar de la física que describe tres de las interacciones fundamentales de la naturaleza -fuerte, débil y electromagnética- está formulado en términos de “teoría de aforo”, una generalización del electromagnetismo. Las teorías de aforo generalizan la simetría de aforo antes expuesta. Esta generalización asocia un grupo a dicha simetría.

La cuarta de las fuerzas fundamentales, la interacción gravitatoria, se ha resistido todavía a una descripción cuántica ( aspecto que se inicia fuertemente en el Tercer Milenio ) . La formulación clásica de la gravedad puede entenderse también como una teoría de aforo. Pero su formulación cuántica constituye uno de los grandes problemas a los que se enfrenta la física teórica. Para resolverlo se han abierto dos vías de investigación: la revisión de los métodos de estudio de la teoría cuántica de campos y la profundización del estudio de las teorías de cuerdas y de supercuerdas. Si la solución se hallara escondida en la segunda vía, tendríamos un marco unificado de las cuatro interacciones fundamentales. Quizá la raíz última de la dificultad estriba en que no se dispone de las estructuras matemáticas adecuadas.

Aunque se está en el comienzo de esta nueva forma de evolución, llegan ya los primeros resultados en tal dirección. Quizás en el futuro habrá un nuevo intercambio de papeles, y el nuevo lenguaje matemático, construido a partir de la abstracción física, sea el marco adecuado no sólo para establecer con rigor la teoría cuántica de campos, sino también para establecer los fundamentos de las teorías de cuerdas o de la teoría cuántica de la gravedad. Cualquier adelanto en esos dominios supondría un gran avance en el estudio de la unificación de las cuatro interacciones fundamentales y esto es de primordial importancia para entender cómo se inicia nuestro Universo. Ha de advertirse-sin embargo-que conforme los físicos se adentren en este mundo, la cosmología cuántica se irá haciendo mas y mas lejana al lego e incluso a los propios físicos acostumbrados a la visión, al lenguaje y al rigor de la física clásica ,que apenas
ha logrado asimilar los rudimentos de la relatividad y la cuántica. .

A continuación se examina el estado de situación de la búsqueda por vía de la Teoría de Cuerdas.


NUEVA DUALIDAD

A inicios de la década d los 90, bajo examen los físicos echaron las campanas al vuelo, cuando la “teoría de cuerdas” ganó predicamento en su calidad de candidata a TOE. Los físicos la habían elaborado a partir de la idea de que los objetos más elementales del Universo son unas cuerdas inimaginablemente finísimas cuyas ondulaciones generan todas las partículas y fuerzas del Universo. Estos bucles o segmentos de cuerda miden unos 10-33 centímetros de largo y vibran, como las cuerdas de un violín, en muchos modos diferentes. A cada modo vibracional le corresponde una energía fija, razón por la cual, según las leyes de la mecánica cuántica, cabe considerarlos partículas. Pero la teoría de cuerdas pronto se topó con barreras matemáticas: se fragmentó en cinco teorías competidoras.

Una peculiar simetría nueva, la dualidad, va haciendo que las diferentes cuerdas se entrelacen. La dualidad está redefiniendo la idea que los físicos tienen de qué es una partícula fundamental, o cuerda. Ahora –de acuerdo con las formulaciones teóricas - parece que los objetos elementales están hechos de las mismas partículas que crean. Uno de los mas conspicuos físicos cuánticos que en esa época se consideraba el más representativo es Eddy Witten , físico y matemático cuántico norteamericano, una “superestrella “ de la física en la década de los noventa ,quien no sólo cree que la dualidad nos llevará a la TOE (Teoría del Todo) , sino que podría además aclarar por qué el Universo es como es.
A criterio de Witten: “Nos encaminamos hacia una explicación de la mecánica cuántica” y no se pueden oír muchas voces críticas: la complicación matemática que encierra la teoría de cuerdas ha dejado fuera del ruedo a la mayoría de físicos y matemáticos” . En efecto , al propio tiempo, el mundo que emerge de la dualidad se está volviendo aún más raro. Las cuerdas se convierten con facilidad en agujeros negros y viceversa; dimensiones nuevas se amplifican en diferentes dominios; y no sólo fluctúan cuerdas por los caminos del Universo, sino también burbujas y otras membranas. La multitud de conexiones, creen los investigadores, apunta a una entidad más profunda. -la TOE- que -se presume - lo explicaría todo”.

Aunque inicialmente Witten , quien es periodista político además, y actualmente enseña en el Instituto de Física Avanzada de Princeton, formula una teoría de cuerdas, buscando reunir las diversas formulaciones existentes en una sola, que denomina Teoría M , que significaría que las cuerdas pueden ser solo cuerdas, pero también Membranas ( comúnmente llamadas Branas ) que obedecerían a una fuerza superpoderosa (TOE) .

La Teoría M ha sido objeto de mucho trabajo teórico, pero igualmente de mucha incomprensión. Combina en una sola formulación teórica nada menos que todas las teorías anteriores y simultaneas en el tiempo relacionadas con las nociones iniciales de la teoría de cuerdas, que luego se transforma en teoría de supercuerdas y en teoría de supergravedad, imaginadas en once dimensiones.

La palabra “dual” -que está desplazando rápidamente a “súper”- tiene para los físicos muchas connotaciones diferentes. A grandes rasgos, se dice que dos teorías son duales si, aparentemente disímiles, aportan iguales predicciones físicas. Por ejemplo, si se intercambian todas las magnitudes eléctricas y magnéticas de las ecuaciones electromagnéticas de Maxwell, se obtiene, nominalmente una teoría distinta. Pero si se admite que, además de las cargas eléctricas, hay en el mundo cargas magnéticas (como un polo norte aislado de una barra iman-polo norte aislado de una barra imantada), las dos teorías resultan ser exactamente la misma, o duales.

Más concretamente, la dualidad hace que sean intercambiables los objetos elementales y los compuestos: que una partícula u otra entidad, sea fundamental o conste de entidades aún más fundamentales depende del punto de vista. Cada perspectiva acaba por dar los mismos resultados físicos.

El concepto de dualidad ha salido de las teorías de campo, pero, la “dualidad es mucho más natural en teorías de cuerdas”. Más versátil, también. La dualidad puede unir cuerdas de tipos diferentes, existentes en dimensiones diferentes y en espacio-tiempo de morfologías diferentes. Gracias a estos logros, la teoría de cuerdas está superando sus limitaciones y elevándose a la categoría de TOE.

En las fases precoces de su evolución, la teoría de cuerdas había fallado en su afán por devenir teoría unificada debido a los muchos tipos de cuerdas que se proponían y la embarazosa multiplicidad de respuestas que daba. Esta abundancia tiene su fuente en otra peculiaridad de la teoría de cuerdas: sólo es coherente si las cuerdas habitan originalmente un espacio-tiempo de 10 dimensiones.

Por desgracia para los teóricos de las cuerdas, las seis dimensiones extra se pueden enrollar de múltiples maneras diferentes. Cada uno de esos espacios comprimidos ofrece una solución diferente para la teoría de cuerdas, con una imagen propia del mundo tetradimensional. Un tipo de dualidad, la simetría especular, encontrada a finales de los años ochenta ha ayudado a aminorar el problema mediante la fusión de algunas soluciones alternativas. La simetría especular descubrió que las cuerdas de dos espacios enrollados y diferentes ofrecen a veces las mismas partículas.

El tamaño al que se encoge una dimensión es bastante similar en la teoría de cuerdas, a otro parámetro: la intensidad con que interaccionan las partículas. Así como los espacios grandes pueden tener la misma física que los pequeños, quizás una teoría de cuerdas con un acoplamiento grande podría dar los mismos resultados que otra que tenga uno pequeño. Esta conjetura relacionaba las teorías de cuerdas de manera análoga a como la cualidad actuaba en la teoría de campos.

Además, de lejos, las cuerdas parecen partículas; de ahí que la dualidad en la teoría de cuerdas comporte la dualidad en la teoría de campos, y viceversa. Cada vez que se ha puesto a prueba la dualidad en uno y otro caso, la ha pasado brillantemente y ha servido para acercar más los dos dominios. En el evento de que los esfuerzos de búsqueda de Toe dentro de la Teoría de Cuerdas, en su versión más avanzada, no rinda los resultados esperados, se abre otra vía de búsqueda con las Teorías de Gravitación Cuántica.


GRAVITACIÓN CUÁNTICA


La gravitación cuántica versa sobre el problema del espacio y el tiempo. Con la relatividad general, Einstein nos proporcionó no sólo una teoría de la gravitación, sino una teoría de la naturaleza del espacio y el tiempo -una teoría que echó abajo la concepción newtoniana anterior-. El problema de la gravitación cuántica es cómo combinar la comprensión del espacio y el tiempo que nos transporten más allá de lo que nos ha enseñado la teoría de la relatividad.

Pero, yendo aún más allá, una teoría cuántica de la gravedad debe ser una teoría cosmológica. Como tal, debe también decirnos cómo describir la totalidad del Universo desde el punto de vista de los observadores que viven en él -pues por definición no hay observadores fuera del Universo-. Esto conduce directamente a las principales cuestiones con las que nos estamos debatiendo, porque parece muy difícil saber cómo podría extenderse la teoría cuántica de átomos y moléculas a una teoría del Universo en su totalidad. Como nos enseñaron Bohr y Heisenberg, la teoría cuántica parece tener sentido sólo cuando se entiende como la descripción de algo pequeño y aislado del observador -el observador está en el exterior-.

Por esta razón, la fusión de la teoría cuántica y la relatividad en una única teoría debe también afectar nuestra comprensión de la teoría cuántica. Más generalmente, para resolver el problema de la gravedad cuántica tendremos que dar con una buena respuesta a la siguiente cuestión: ¿cómo podemos nosotros, como observadores que vivimos dentro del Universo, elaborar una descripción completa y objetiva del mismo?

Según el físico de partículas norteamericano Lee Smolin : “La mayor parte del trabajo científico se ha centrado en el problema de la gravedad cuántica problema, especialmente única área de la física que conozco donde uno puede tratar cada día con cuestiones filosóficas profundas a la vez que se dedica al oficio propio del físico teórico, que es hacer cálculos para intentar hacer predicciones sobre la naturaleza a partir de nuestras representaciones teóricas. También me gusta el hecho de que uno debe tener un amplio conocimiento de muchas cosas diferentes para meditar sobre este problema. Por ejemplo, es probable que la gravedad cuántica sea relevante en la interpretación de datos astronómicos, y también es probable que la nueva teoría que estamos intentando construir haga uso de nuevas ideas y estructuras matemáticas que no hemos hecho sino comenzar a descubrir. Así pues, aunque prácticamente no he trabajado en otro problema durante casi veinte años, nunca me he aburrido”.

Afirma Smolin: “ he estado trabajando con varios amigos en una nueva aproximación para combinar la relatividad con la mecánica cuántica. La hemos denominado “gravedad cuántica no perturbativa”. (también se la cita como Teoría de Bucles) que permite investigar las implicaciones de la fusión de la relatividad con la teoría cuántica de manera más profunda y exhaustiva. Todavía no hemos terminado, pero estamos haciendo progresos constantes, y recientemente hemos conseguido extraer de la teoría algunas predicciones experimentales. Las predicciones que hemos podido hacer hasta ahora no pueden ser comprobadas, porque se refieren a la geometría del espacio a escalas de un orden de magnitud veinte veces menor que el del núcleo atómico. Pero estamos más cerca de una solución del problema de la que nadie ha estado antes (y, tengo que decirlo, más cerca de lo que yo esperaba llegar en toda mi vida).
En este trabajo hemos combinado una muy bella formulación de la teoría de la relatividad general de Einstein, descubierta por mi amigo Abhay Ashtekar, con algunas ideas sobre cómo construir una teoría cuántica de la geometría espaciotemporal en la que todo se describe en términos de bucles . Esto es, más que describir el mundo diciendo dónde está cada partícula, lo describimos en términos de entrelazamiento de bucles” .

Esta teoría de “Enlace o entrelazamiento de bucles microdimensionales) fue propuesta por el físico cuántico italiano Carlos Rovelli , el físico uruguayo Rodolfo Gambini y por Lee Smolin y
afirma que en la escala de Planck, que es veinte potencias de diez más pequeña que un núcleo atómico, el espacio aparece como una red o madeja de bucles discretos. De hecho, estos bucles son algo así como los átomos de los que estaría compuesto el espacio.

La teoría afirma que las energías de los posibles estados de un átomo toman valores discretos- cuando se sondea la estructura del espacio a esta escala de Planck, y por tanto se encuentra teóricamente que los valores posibles del área de una superficie o del volumen de una región se miden también en unidades discretas. Las unidades discretas serian mas o menos las mismas que se utilizan en física clásica y que estamos acostumbrados a usar en la vida corriente, pero aquí serian “continuas” no separadas, fraccionadas, interrumpidas, lo que los físicos conocen como “ unidades discretas, término que también aplican a las unidades de tiempo).

Lo que a nuestra escala macro parece una geometría espaciotemporal lisa es el resultado de un enorme número de estos bucles elementales entrelazados, igual que un trozo de tela aparentemente liso está en realidad compuesto de muchos hilos individuales, y por eso es que
la imagen de los bucles es enteramente una descripción en términos de relaciones. No hay una geometría espacial preexistente, ni puntos de referencia fijados; todo es dinámico y relacional. Esta es la manera de entender la geometría del espacio que enseñaba Einstein (como algo relacional y dinámico) no fijado o dado a priori.

De acuerdo con Smolin: “ Valiéndonos de esta imagen hemos podido trasladar esta idea a la teoría cuántica, porque, en efecto, la idea más importante que hay detrás de los avances de la física y la cosmología del siglo XX es que en el nivel fundamental las cosas no tienen propiedades intrínsecas; todas las propiedades son relaciones entre cosas. Esta es la idea básica de la teoría de la relatividad general de Einstein, pero su historia es más larga; se remonta como mínimo al siglo XVII con el filósofo Leibniz, que se oponía a las idea de Newton sobre el espacio y el tiempo, porque para Newton el espacio y el tiempo eran entidades absolutas, mientras que Leibniz quería entenderlos como aspectos de las relaciones entre cosas. Para mí, esta lucha entre quienes quieren un mundo hecho de entidades absolutas y quienes quieren un mundo hecho sólo de relaciones es un tema clave en la historia de la física moderna. En esto no soy imparcial. Pienso que Leibniz tenía razón, y que lo que está sucediendo en la ciencia de hoy puede contemplarse como la victoria de los relacionistas” .

Y agrega: “ En efecto, en los últimos años me he dado cuenta de que el punto de vista relacional puede inspirar el tratamiento de otros problemas de la física y la astronomía, entre ellos el problema fundamental de la física de partículas, que es dar cuenta de todas las masas y cargas de las distintas partículas elementales. He llegado a la conclusión de que este problema está conectado también con dos cuestiones básicas sobre las que la gente se ha estado interrogando durante años. La primera es la siguiente: ¿por que las leyes de la física y las condiciones del Universo son tales que hacen posible la existencia de seres vivos? La segunda cuestión está estrechamente relacionada con la primera: ¿por qué, después de tanto tiempo desde su formación, está el Universo tan lleno de estructuras? Más allá incluso del fenómeno de la vida, es un hecho singular que nuestro Universo parece haber evolucionado, más que hacia un estado uniforme y aburrido de equilibrio térmico, hacia un estado lleno de estructura y complejidad a virtualmente todas las escalas, de la subnuclear a la cosmológica”.

El cuadro que resulta de la relatividad y la teoría cuántica , en las visiones de Smolin, Rovelli, Gambini entre otros muchos físicos que buscan cuantizar la teoría de la relatividad y buscan asomarse detrás del “ Muro de Plank” , es decir a lo que habría ocurrido antes del nacimiento o eclosión del Universo actual, es el de un mundo concebido como un mundo de relaciones.
Así, el cuadro jerárquico newtoniano, en el que átomos con propiedades fijas y absolutas se mueven sobre un fondo fijo de espacio y tiempo, dejaría de ser cierto ,lo que no significa que el atomismo o el reduccionismo sean incorrectos, pero sí –en esta nueva propuesta , hay que entenderlos de una manera más sutil.

La gravedad cuántica, afirma Smolin- “… hasta donde podemos decir, va aún más allá, pues nuestra descripción de la geometría del espaciotiempo como un tejido de bucles y nudos es una bella expresión matemática de la idea de que las propiedades de cualquier parte del mundo están determinadas por sus relaciones y su ligazón con el resto del mundo… y , a medida que desarrollábamos esta descripción, comencé también preguntarme: sería posible extender la filosofía básica subyacente a otros aspectos de la naturaleza, más allá de la simple descripción del espacio y el tiempo. Más concretamente, comencé a preguntarme: ¿ si el mundo como un todo podría entenderse de una manera más relacional que en el cuadro tradicional, en el que todo está determinado por leyes de la naturaleza fijas…?

Para comprender la reflexión de Smolin hay que pasar del mundo real conocido a uno nuevo y es que solemos imaginar que las leyes de la naturaleza están fijadas, de una vez y para siempre, por algún principio matemático absoluto, y que gobiernan el devenir de los acontecimientos actuando al nivel de las partículas más pequeñas y fundamentales y es que hay buenas razones para creer que las fuerzas fundamentales deberían actuar sólo sobre las partículas elementales, pero en la física de partículas se asume también otra cosa: que hay mecanismos o principios cuyas leyes se expresan realmente en la naturaleza, pero que se aplican sólo a escalas increíblemente pequeñas, mucho menores que las del núcleo atómico.

Concluye Smolin. “ Un ejemplo de tales mecanismos es lo que se llama “ruptura espontánea de simetría”. Dado que la elección de las leyes condiciona el Universo en su totalidad, comenzó a extrañarme que los mecanismos que seleccionan las leyes no estuviesen de algún modo influenciados por la historia o la estructura del Universo a muy gran escala. Pero, para mí, lo que constituye una auténtica bofetada a la idea de que la elección de las leyes que gobiernan la naturaleza está determinada sólo por mecanismos que actúan a las escalas más pequeñas es el fracaso espectacular de la teoría de supercuerdas” .



LÍMITE: DETERMINISMO - INDETERMINISMO.

Las reglas de la física cuántica lo dominan todo, pero sus efectos visibles dependen de la escala en que se haga - por ejemplo -un experimento. En el reino micro el comportamiento indeterminista gobierna. En el reino macro, desde una milésima de un milímetro en adelante, los efectos desaparecen y el comportamiento es como lo describe la física clásica: familiar y rutinario, pero que sucede cuando se mezclan el mundo de lo macro y el mundo del o micro. A eso alude ,justamente, el célebre experimento teorico conocido como “ Caja del gato de Schrödinger ” : en una caja hay un gato encerrado con una pastilla de cianuro que se activa por medio de un dispositivo gobernado por un único átomo radioactivo .Si este se desintegra mata al gato.

Hay que entender de primero que la radiación sigue un proceso cuántico, esto es las reglas de la probabilidad; así es posible saber que el mecanismo se activará, pero no cuando lo hará. Si se abre la caja, de acuerdo con las reglas cuánticas el átomo estará en un estado de superposición ( se desintegra y/o no se desintegra). Pero al observarlo el efecto ya no es cuántico sino acorde con las reglas físicas clásicas, el átomo está desintegrado o no; por lo tanto el gato estará muerto o vivo; no en una situación intermedia.

1.- El Gato de Schorodinger : En 1935 Erwin Schrödinger propone que imaginemos un sistema integrado por una caja cerrada que contiene un gato y una botella con una sola partícula radiactiva con un 50% de probabilidades de desintegrarse en un tiempo dado . El sistema tiene –además-. un dispositivo que al desintegrarse la única partícula se desintegra a su vez , rompiendo la botella y causando la muerte del gato. Todo este sistema está sometido, a su vez, a las leyes cuánticas: así ninguno de los componentes (gato, partícula, botella) pueden separarse, están ligados entre ellos. La única forma de separar los componentes es hacer una observación ( medición) del sistema imaginado. Según la interpretación cuántica de Copenhague, en el gato subsisten dos estados a la vez: gato vivo y gato muerto, pero si abrimos el sistema para observar resulta que colapsa uno de los estados y por ellos nos encontraremos al gato vivo o al gato muerto (no los dos estados superpuestos. Y esto obedece según esta interpretación, al hecho de que la observación de los estados cuánticos entrelazados, obedecen a una propiedad cuántica llamada “superposición” de estado que existe probabilísticamente . Sin embargo al abrir el sistema basta la observación para que la función de onda colapse y el gato lo encontremos vivo o muerto ya no en estado de superposición probabilística.
A ese celebre experimento se le había dado otra interpretación más asombros aun, debida al físico norteamericano Hugh Everett, quien en 1957 postula su teoría de los “Universos Paralelos” , que explica que a todos los eventos que se producen en nuestro Universo, corresponden eventos iguales pero distintos en comportamiento en otros universos paralelos. Consecuentemente, para la paradoja del Gato de Schorodinger ,Everett explica que en todo punto de la vida del gato hay ramificaciones que suceden en un universo, otras en otro universo y no pueden superponerse en un único Universo ( el nuestro que observamos) porque se da el fenómeno de la decoherencia cuántica. Para Everett hay un gato en estado vivo en el Universo X y un gato en estado muerto en el Universo B.

El fenómeno de la decoherencia cuántica es , a su vez, una postulación teórica debida al propio Schorodinger y afirma que las partículas son tratadas como ondas que se comportan según la Ecuación de Schorodinger y el comportamiento de tales ondas de probabilidad es un comportamiento que se encuentra en contradicción con los postulados de la mecánica clásica dado que en esa rama de la física, las partículas no presentan fenómenos típicos de las ondas como la interferencia. Justo la Ecuación de Schorodinger busca explicar de qué manera las partículas cuánticas pueden conformar elementos macros que si se comportan de manera clásica y pueden ser medidos sin problema alguno.


Aunque el experimento teorico del Gato de Schorodinger viola el sentido común hay muchos experimentos de este tipo que solo pueden explicarse por la “superposición de estados” (esto es por la indeterminación de acuerdo a las reglas familiares y rutinarias). De acuerdo con el argumento de Schrödinger, en todo momento - en la caja: átomo y gato están en estado superpuesto; pero al abrir la caja la situación cambia porque hay una intervención de parte del observador que entonces “congela la función de onda”.

Ahora bien para Schrorödinger hay una transición entre lo que se observa al abrir la caja (operan las reglas de la física clásica) y entre lo que en realidad ocurre dentro de ella (operan las reglas de la física cuántica). Asimismo señala ,acudiendo a la Ecuacion que lleva su nombre, que hay una fase de transición entre uno y otro comportamiento, o lo que es lo mismo, entre una y otra escala.

La pregunta es: ¿Qué es lo que causa la transición y a que escala sucede? .Este experimento hipotético y las elucubraciones de su autor fueron formulados en 1935; pero el experimento sobre el que hay innumerables formas de explicarlos en la literatura , se modifica en 1996 en la Oficina de Medidas del Gobierno Federal Norteamericano, en donde Christopher Monroe y David Wineland hicieron este experimento con estos pasos sucesivos:
1.-Confinaron un ion único (un átomo al que se removió el electrón; esto es un catión de berilio), lo congelaron a cero absoluto para poder controlarlo y lo apuntaron con un disparador bien calibrado de luz de láser (A) y lo dejaron en un estado de superposición interna calentándolo y enfriándolo sucesivamente.
2.- Luego apuntaron otra luz de láser (B) directo al ion y calibraron los efectos de ambos láser a una distancia de 11 veces su propio diámetro del cono de luz.
3.- Cada vez que se hizo una medición, la función de onda se colapsó al quedar el ion en uno de dos lugares diferentes: bajo el laser (A) o el láser (B).

¿ Que comprobó el experimento? : Que no hay un límite claro entre las fronteras de la física clásica y la física cuántica. Pero aunque impresionante el resultado la duda sigue. Si lo que impide ver el estado de superposición es la medición, cómo se puede obviar ésta para ratificar experimentalmente la tesis de Schorödinger ¿y cuál será entonces la barrera; y a qué distancia se encuentra?

Para proseguir esta experiencia se está preparando un dispositivo aún más afinado y revolucionario: una computadora cuántica que no interfiera el proceso. Y de esta experiencia saldrán otras luces reveladoras sobre la forma en que nuestro cerebro percibe todo colapsado en su función de onda: por ejemplo, el lector percibe la tinta, el papel y el volumen que lee como si fuesen sólidos, pero no percibe los átomos, ni los espacios vacíos entre ellos, ni los constituyentes de los átomos, tampoco percibe los niveles inferiores de quarks, ni el campo F que los ordena, mucho menos percibe el nivel de información - que se teoriza - es el más bajo nivel de sostenimiento y mantenimiento de la materia. La pregunta aquí es porqué: ¿Dónde se encuentra la frontera y cuál es la dimensión que media (transición) entre lo que se percibe y los estados por debajo superpuestos?

Más aún cuál es entonces la realidad: ¿La que percibimos o la que no percibimos? ¿o ambas? Y otra pregunta inevitable: ¿Por qué percibimos así? Una respuesta muy seria puede ser: porque al carecer de diferencias todo lo subatómico, la percepción sería tan aburrida que toda la materia con sus colores, formas, olores, matices y con sus transformaciones permanentes, pasaría a ser percibida monótonamente igual y entonces: ¿Qué vida sería esta? Pero surge otra pregunta inevitable. Si esto es cierto, entonces: ¿Qué o (¿quién?) ha dispuesto que fuese así...?

Con un formalismo matemático preciso y con un éxito pragmático total, la mecánica cuántica sin embargo, ha mostrado una sorprendente fragilidad conceptual y una radical ausencia de imaginación pictórica. En la mecánica clásica, los conceptos parecen tener un correlato claro y preciso y su lenguaje, en paralelo al formalismo matemático subyacente, posibilita considerar que los cuerpos físicos se encuentran en el espacio-tiempo y, en él, pueden tanto describirse como explicarse los fenómenos al igual que predecir su comportamiento.

La mecánica cuántica, en su concepción ortodoxa o de Copenhague, supone un radical cambio en lo que cabía considerar concepción "natural", intuitiva del mundo. Así, los objetos materiales, si bien ocupan un lugar en el espacio, resulta que en determinadas circunstancias ese lugar no es región alguna concreta. Las leyes por las que se gobiernan los objetos físicos ordinarios dejan de ser válidas cuando esos objetos se utilizan como instrumentos de observación o medida; en otras palabras, el observador interviene de modo decisivo en aquello que observa. El azar no es algo ligado al conocimiento o limitación epistémica humana, sino que es un elemento intrínseco a la naturaleza, por lo cual el conocimiento de ésta ha de ser básicamente probabilístico.

Frente a la concepción ortodoxa se han ido alzando líneas heterodoxas que pretenden la formulación de una mecánica cuántica que dé cuenta de tales éxitos, de todos los fenómenos subatómicos conocidos, y posibilite un cuadro en el cual no se tengan consecuencias como las antes señaladas. Es decir, que se tenga un cuadro en el cual se sustituya la concepción probabilística y subjetiva por una concepción causal y determinista. En línea con Schrödinger, fue Bohmn uno de los pioneros en intentar la elaboración de un cuadro formal más acorde con el clásico desde 1952.

Einstein nunca aceptó los postulados de la Escuela de Copenhague; luego Schorodinger tampoco terminaría aceptándolos.. Más tarde fue David Bohm (1952) uno de los pioneros en tratar de elaborar un cuadro más determinista. Ahora, en 1996 el enfoque que el físico teórico inglés Peter R. Holland adopta supone una inversión conceptual para quien pretende que la mecánica clásica y la cuántica tienen la misma estructura teórica, lo cual no significa que una se reduzca a la otra. Pero este objetivo supone poder dar cuenta de una noción clave en la mecánica clásica -la trayectoria bien definida de una partícula- noción que realmente ha desaparecido en la cuántica. Desde la posición adoptada por Holland esa trayectoria no aparece como caso límite, sino como consecuencia de los tipos de movimiento que las partículas pueden realizar. Y ello porque se invierte el proceso usual por el que la dinámica de partículas se define: en lugar de introducir las trayectorias a través del espacio lagrangiano o el hamiltoniano con demostración posterior de que la ecuación correspondiente es consistente, ahora Holland define las trayectorias, directamente, como soluciones de la ecuación que lleva el nombre de Hamilton-Jacobi.

En la concepción ortodoxa la dinámica de partículas es la que implica la evolución del campo en un espacio de configuración; pero desde la inversión actual que plantea Holland es la dinámica del campo en un espacio de configuración la que implica la dinámica de partículas.

Esta inversión supone una nueva teoría del movimiento pero también, consecuente, una nueva concepción de la materia. Materia que pasa a tener un aspecto intrínseco por el cual las masas puntuales se mueven e interactúan no ya por potenciales preasignados de naturaleza independiente y externos a los puntos sobre lo que actúan, sino que se mueven e interactúan también por una energía interna. Y ello conlleva la afirmación de que esta inversión produce una síntesis de las características corpuscular y ondulatoria de la materia que ahora ya no son mutuamente excluyentes sino que existen simultáneamente (la nueva propuesta no es onda versus partícula, sino onda y partícula) Y esa existencia simultánea posibilita afirmar que se tiene una teoría causal determinista frente a la visión ortodoxa.

Así, un sistema material, como el electrón, aparece como una partícula guiada por una onda cuántica que actúa como un campo, y bien entendido que la función de onda no se toma ya como mero constructo matemático sino como un ente físico. Desde este enfoque Holland realiza un estudio de los fenómenos clásicos para mostrar que las órbitas espaciotemporales de un conjunto de partículas reproducen las predicciones de la mecánica estadística cuántica clásica. Así ha desarrollado planteos teóricos para algunos de los principales fenómenos ligados a la mecánica cuántica: interferencia, efecto túnel, estabilidad de materia, espín 1/2, correlaciones no-locales y como algo novedoso, en este enfoque, la observación o la medición, no hace que la función de onda colapse.

En consonancia con esta nueva interpretación que propone Holland, resulta que Dennis Gabor, (inventor de la holografía y premio Nobel), aseveró en 1962 que no puede realizarse observación alguna sin que al menos un fotón -la partícula básica, o cuanto, de la luz- dé en el objeto observado, pero en los últimos años, sin embargo, quienes se dedican al cada vez más sorprendente campo de la óptica cuántica han aprendido que esa afirmación es falsa. Ahora es posible determinar si un objeto está presente sin que lo toque ni un solo fotón, según han logrado determinar los físicos de la Universidad de Tel-Aviv, en Israel en 1993 y comprobado nuevamente los físicos de la Universidad de Ginebra, Suiza en 1997.

Parece que una medición así, exenta de interacciones, es una contradicción: si no existe interacción, ¿cómo puede haber medición? En mecánica clásica, que estudia el movimiento de cualquier objeto que no sea demasiado pequeño, esa objeción es razonable; pero las cosas son distintas en mecánica cuántica, pues con un diseño experimental hábil se puede realmente medir sin que haya interacciones, lo que plantea nuevas y sorprendentes repercusiones para la lógica y las especulaciones filosóficas.

2.- Ordenador cuántico.- A medida que evoluciona la tecnología, aumenta la escala de integración y caben más transistores en el mismo espacio, así se fabrican microchips cada vez más pequeños, y es que, cuanto más pequeño es, mayor velocidad de proceso alcanza el chip. Sin embargo, no es factible técnicamente hacer los chips infinitamente pequeños, porque Hay un límite en el cual dejan de funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de los canales por donde deben circular. A esto se le llama efecto túnel. Una partícula, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero con los electrones, que son partículas cuánticas y se comportan como ondas, existe la posibilidad de que una parte de ellos pueda atravesar las paredes si son demasiado finas; de esta manera la señal puede pasar por canales donde no debería circular. Por ello, el chip deja de funcionar correctamente.
En consecuencia, la computación digital tradicional no tardaría en llegar a su límite, puesto que para estas fechas ya se han llegado a escalas de sólo algunas decenas de nanómetros y surge entonces la necesidad de descubrir nuevas tecnologías y es ahí donde entra la computación cuántica, que se inicia en 1981, cuando el físico norteamericano Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en una “Maquina de Turing” modificada. Ese mismo año Richard Feyman, otro físico norteamericano apoya la idea y la amplia y finalmente en 1985 el físico hebreo-britanico David Deutsch perfecciona la teorización .
La idea básica consiste en que , en vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuantos . En la computación digital, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el número de qubits.
El "ordenador cuántico" puede realizar operaciones matemáticas con mucha mayor rapidez que los ordenadores disponibles. El principal rasgo distintivo del ordenador cuántico estriba en el uso del "paralelismo cuántico", que permite realizar una misma operación sobre varias entradas ("inputs") a la vez. Para poder aplicar esta propiedad tan sorprendente de la mecánica cuántica es necesario que el ordenador se encuentre completamente aislado, ya que la más mínima perturbación arruinaría el resultado.

Además, un ordenador cuántico debe estar constituido por cubits (o bits cuánticos), que son sistemas con dos estados cuánticos distintos: 0 y 1.

La dificultad para construir ese ingenio radica, pues, en encontrar un sistema formado por pequeñas entidades (cubits) que admitan una manipulación fácil y se hallen completamente aisladas del exterior. Todo el decenio de los ochenta, a partir de los postulados teóricos de Benioff, permiten comenzar a experimentar en muchos laboratorios públicos y privados,con relativo éxito . Asi, en de 1994, a modo de ejemplo, citemos que Patrick Zoller, de la Universidad de Innsbruck (Austria), y Juan I. Cirac, de la Universidad de Castilla (España) encontraron un sistema que cumple todos los requisitos para construir un ordenador cuántico. Los experimentos realizados a mediados de 1995 por el grupo de David Wineland, del Instituto Nacional de Pesos y Medidas de Estados Unidos, han confirmado las ideas, y ya hay varios grupos de experimentadores adaptando las ideas primordiales y modificándolas para perfeccionarlas, empeñados en construir ordenadores cuánticos siguiendo la propuesta teórica, pues esto permitirá abrir una poderosa puerta al conocimiento. En teoría pues, la computación cuántica es posible y la practica aunque limitada por ahora es muy prometedora.




UNIVERSOS INFLACIONARIOS:

En 1996, en dos publicaciones distintas los dos cosmólogos más combativos: Guth y Linde ofrecen sus propias versiones de la teoría inflacionaria que como se observa no son coincidentes:

1.- Teoria de la Inflacion.- El físico norteamericano A. Guth hizo un primer planteamiento sobre el Universo Inflacionario que fue publicado en 1981; esto es el proceso de inflación por el que habría atravesado el Universo debido a una ruptura espontánea de la simetría cuando se enfrió a 10 g. Kelvin entre unos 10-43 segundos a 10-45 segundos después de su creación, con lo que se expandió exponencialmente doblando su tamaño cada 10-34 segundos y aplanándose rapidísimamente y cuando la expansión se frena hasta alcanzar la marcha normal del modelo estandard hay un pequeño excedente de materia sobre la antimateria (bosones X de Higgs).

Este modelo inicial resolvía tres problemas: el del horizonte; el de la planaridad y el de los monopolos que eran dificultades no resueltas antes de esta explicación. Pero la explicación inflacionaria ,llamada también modelo Inflacionario o Teoria de la Inflacion , hace que surja otro problema: el que otras regiones del espacio - tiempo, más allá de nuestro Universo visible no se inflaron al mismo tiempo o a la misma velocidad que nuestra “burbuja del Universo”, lo que deja abierta la posibilidad de que nos encontremos en una región del Universo que está inserto en un Universo mayor o Meta - Universo. Eso significaría que habría muchas burbujas infladas de espacio - tiempo, cada una con sus propios valores de los campos de Higgs y con físicas diferentes en cada una de ellas. Para resolver el nuevo problema surgido se formulan otras nuevas teorías:

1) Un modelo fue planteado a fines de 1980 por A. Albrecht y P.J. Steinhardt de la Universidad de Pennsylvania, y en 1981, el físico soviético Andrei Linde planteó también por separado una solución a este problema del modelo de Guth. La solución consistía en imaginar un proceso de transición pasando el Universo lentamente desde una “meseta energética” al vacío verdadero y no como había sugerido Guth que el Universo estaba atrapado en un “falso vacío”, y debía traspasar un “túnel a través de la barrera de energía.” En ambos modelos sustitutivos la energía liberada “disparaba” el proceso inflacionario, pero en la propuesta de Linde, que se popularizó a partir de 1985 no se planteaba el problema de la separación de las “burbujas”.
2) Una variante a esta propuesta, debida al físico D. Nanopoulos del CERN partía de la idea de iniciar el proceso de ruptura de simetría primero con un proceso de inflación tipo “primordial”, para luego seguirlo con la ruptura de la GUT y seguido luego del asentamiento del Universo en un espacio lleno de radiación, quarks, partículas frías y materia oscura. Este tipo de modelo se inscribe en lo que los físicos de la CERN llaman modelo PRIMOS.
3) El propio A. Linde elaboró una nueva versión del modelo, posteriormente pero en vez de proponer la ruptura de simetría por mecanismos de temperatura, imagina distintos niveles de energía (campos escalares energéticos) que buscarían estados de mínima energía. Así se empata con la idea planteada por Eisntein de que tan pronto la densidad de energía cambia lentamente, ipso - facto el Universo inicia una expansión exponencial.

Este último modelo - más sencillo - evita los problemas que introduce la idea de Guth y sea o no correcto, es necesario plantear propuestas - como de hecho se está haciendo - desde esos años para explicar satisfactoriamente que fue ( y como fue que) el proceso que hizo que un “huevo” o más propiamente una “semilla” primordial de 10-43 cm. (longitud de Plank) de diámetro originó lo que hoy conocemos como Universo.

Es útil conocer en palabras de los propios proponentes en que consietian sus ideas primordiales:

Posición de Guth:
1.- En 1980 desarrollé la idea del Universo inflacionario, como una teoría consistente con el modelo estándar de la gran explosión, y esta es una de las razones de que haya sido tan bien aceptada porque no requiere tirar por la borda la concepción previa de la cosmología, pero añade muchas cosas. Añade toda una relación de los hechos que ocurrieron durante la primera fracción de segundo del Universo, un período de tiempo que no había sido explorado antes. Responde cierto número de cuestiones pendientes que plantea el modelo estándar. El Universo inflacionario es una teoría acerca de la realidad. Yo, y probablemente la mayoría de físicos, contemplamos la realidad como una realidad física genuina, una realidad influenciada por nosotros solo hasta donde podemos alcanzar. La realidad existe con independencia de la gente. La meta del físico es comprender esa realidad.

2.- Una de las propiedades más asombrosas del modelo del Universo inflacionario es que permite que el Universo evolucione a partir de un comienzo increíblemente pequeño. Una cantidad de materia del orden de 10 Kg. es por lo visto todo lo que se necesita para generar un Universo. (Esto es muy diferente del modelo cosmológico estándar). Antes de la inflación, el modelo estándar requería que toda la materia existente estuviese ya presente desde el principio, y sólo describía la expansión del Universo y la condensación y evolución de la materia. Una vez establecido el modelo inflacionario, resulta muy tentador preguntarse si, en principio, es posible crear un Universo en el laboratorio por medio de algún proceso artificial.

3.- La primera pregunta que surge es: ¿qué ocurriría si hubiera una pequeña mancha de Universo inflacionario en medio del nuestro, sin que importe de dónde ha salido? Supongamos que existe y preguntémonos cómo evolucionaría. Resulta que si esta mancha es lo bastante grande, crecerá hasta convertirse en un nuevo Universo, pero lo hará de una manera muy extraña. No desplazará nuestro Universo; en vez de eso, la mancha formará un agujero de gusano y se deslizará a través de él. Desde nuestro Universo se verá siempre muy pequeño y tendrá más o menos el aspecto de un agujero negro ordinario. Pero en su interior el nuevo Universo se estará expandiendo y podrá hacerse arbitrariamente grande, creando nuevo espacio a medida que crece. No es difícil que se haga lo bastante grande como para contener un Universo igual que el nuestro. En un brevísimo lapso de tiempo, una pequeña fracción de segundo, se despegará completamente de nuestro Universo y se convertirá en un nuevo Universo totalmente aislado. La cosmología inflacionaria es un nuevo giro en la teoría de la gran explosión. De ninguna manera la suprime. Es completamente consistente con todo lo que se ha dicho en relación con el modelo estándar. Lo que hace cambiar es nuestra concepción de la historia de la primera fracción de segundo tras el instante inicial. De acuerdo con la nueva teoría, durante esta fase el Universo experimentó un período de inflación, un breve lapso de expansión colosal.

Hay tres propiedades clave que diferencian la cosmología inflacionaria (basada en la relatividad general clásica y conservando el principio de conservación de la materia) del modelo estándar. a) El mecanismo por el que toda la materia del Universo puede ser creada durante el breve período de inflación. (En el modelo estándar, había que asumir que toda la materia estaba ahí desde el principio, y no había manera de describir cómo podría haberse creado).

b) La gravedad tiene un papel crucial en el balance de energía, dado que la energía de un campo gravitatorio cualquiera es negativa. Durante la inflación, a medida que el Universo se hace cada vez mayor y se crea cada vez más materia, la energía total en forma de materia aumenta enormemente. Mientras tanto, sin embargo, la energía en forma de gravedad se hace cada vez más negativa. La energía gravitacional negativa cancela la energía material, de manera que la energía total del sistema sigue siendo la misma que al principio -presumiblemente muy pequeña-. De hecho, el Universo podría tener una energía total cero, con la energía negativa de la gravedad cancelando exactamente la energía positiva de la materia.

c) La otra gran diferencia es que la teoría inflacionaria puede explicar varias características notables de nuestro Universo que el modelo estándar de la gran explosión deja sin explicar. Por ejemplo, la uniformidad a gran escala del Universo. Cuando observamos a grandes distancias, el Universo parece ser notablemente uniforme. La mejor evidencia de esto procede de lo más antiguo que podemos observar: la radiación del fondo cósmico de microondas (especie de resplandor remanente de la misma gran explosión). Cuando miramos este fondo de microondas, estamos viendo una instantánea del aspecto del Universo cuando esa radiación fue liberada -cosa que ocurrió sólo unos pocos cientos de miles de años después del Big Bang- y lo que nos dice es que el Universo entonces era increíblemente uniforme.

5.- En el contexto del modelo estándar de la gran explosión, esta uniformidad siempre fue un misterio, porque el Universo primitivo era tan grande que la luz no llegaba a atravesarlo en el tiempo disponible. En el modelo estandard podemos imaginar -por ejemplo- que observamos la radiación de microondas desde dos direcciones opuestas en el cielo, y después seguir la pista de los dos haces de microondas hasta su fuente original. Cuando la radiación fue liberada, las dos fuentes estaban separadas una de otra por una distancia cien veces mayor que la distancia total que la luz podía haber recorrido hasta ese momento. Dado que nada puede viajar más rápido que la luz, esto significa que un punto en un extremo del Universo no podía ser influenciado de ninguna manera por lo que pasaba en el punto opuesto, pero de alguna manera conseguían estar a la misma temperatura al mismo tiempo con la increíble precisión de unas pocas cienmilésimas. La teoría estándar sólo podía dar cuenta de esta uniformidad asumiendo -sin explicación- que el estado inicial del Universo era increíblemente uniforme.

6.- El modelo inflacionario, por su parte, postula un corto período en el Universo primordial durante el cual el Universo se expandió más, mucho más rápidamente que en la cosmología estándar. Esto implica que el Universo primordial sería mucho menor de lo que se había pensado. Este protoUniverso microscópico habría tenido un tiempo más que suficiente para que su temperatura se uniformizase antes del comienzo de la inflación, y luego la inflación habría magnificado esta minúscula región hasta hacerla lo bastante grande como para abarcar el Universo observable. Así la uniformidad a gran escala del Universo deja de ser un misterio y puede entenderse como una consecuencia natural de la evolución cósmica. Para dar cuenta de la uniformidad a gran escala observada tenemos que asumir que durante la era inflacionaria el Universo se expandió por un factor de al menos 10-24. Es muy probable que el factor de expansión fuera de hecho mucho mayor que este número descomunal, pero no hay forma de saberlo.

7.- Hace pocos años estuve trabajando con Steven Bleu y Eduardo Guendelman para averiguar qué pasaría si hubiera una región de Universo en inflación en medio del nuestro. Encontramos que la cuestión podría responderse de forma inequívoca, ya que el comportamiento está determinado por la relatividad general. El único ingrediente nuevo es una idea tomada de la física de partículas (una cierta forma de materia llamada “falso vacío”, que es la fuerza impulsora de la inflación). Descubrimos que una región suficientemente grande de falso vacío crearía un nuevo Universo, el cual, como se ha descrito antes, se desconectaría rápidamente del nuestro y quedaría totalmente aislado. La siguiente cuestión, que resultó ser mucho más difícil, es qué cuesta producir esta pequeña región de espacio vacío, ponerlo todo en marcha. Dado que la densidad de masa del falso vacío es aproximadamente 1060 veces mayor que la densidad de un núcleo atómico, ciertamente no sería una empresa fácil. Ni en el momento presente ni en el futuro previsible hay ninguna tecnología que permita hacer algo así; pero se puede hablar de la física de la creación del Universo como cuestión de principio.

8.- Vamos a imaginar que alguien sabe manipular estas extraordinarias densidades de energía y puede crear un falso vacío, pero entonces surge otro problema! a medida que se comienza a acumular este material, su propia fuerza gravitatoria es tan fuerte que tiende a colapsar en un agujero negro. La formación de un agujero negro sólo puede prevenirse haciendo que el material se expanda a una velocidad enorme. Para que la región se expanda a una velocidad suficiente para formar un nuevo Universo, debe partir de lo que en términos técnicos se denomina una "singularidad inicial" (o "desnuda") (también llamada agujero blanco) esto es un agujero blanco es esencialmente lo opuesto de un agujero negro: mientras que en un agujero negro la materia puede entrar pero no salir, en un agujero blanco la materia es expulsada y no puede volver a entrar.

9.- El instante de la creación cósmica en la teoría de la gran explosión es un ejemplo de la existencia de una singularidad deagujero blanco, pero ciertamente nadie ha visto nunca una, y tampoco sabe cómo crearla en un laboratorio. Así que si nos preguntamos si en principio se puede crear un nuevo Universo en el laboratorio, la respuesta, de acuerdo con la relatividad general clásica, es no, ya que tal creación requiere un agujero blanco. Pero la relatividad general clásica no es la última palabra, porque existe una abrumadora evidencia de que vivimos en un Universo cuántico, un Universo que no está gobernado por leyes deterministas clásicas. Así si la teoría cuántica es absolutamente esencial para la descripción de moléculas, átomos y partículas subatómicas, también es esencial para comprender la verdadera naturaleza de la gravedad. (Por desgracia, la construcción de una teoría cuántica de la gravedad tropieza con problemas técnicos muy complicados). El enigma de la gravedad cuántica podría resolverse mediante la teoría de supercuerdas, pero la comprensión de esa teoría es tan pobre que todavía no ha sido usada para responder ninguna de las cuestiones centrales planteadas.

10.- Mientras que la física clásica implica que no se puede crear un Universo sin un agujero blanco, los efectos cuánticos podrían facilitar las cosas. Junto con Edward Farhi, Jemal Guven abordó la cuestión cuántica empleando una formulación aproximada de la gravedad cuántica mucho más tratable que la teoría de supercuerdas y descubrieron dos cosas. a) encontramos que una de las aproximaciones estándar a la gravedad cuántica conducía a inconsistencias y tenía que ser modificada para obtener alguna respuesta. b) vimos que si hacíamos caso de nuestras leyes de la gravedad cuántica modificada, entonces es posible en principio crear un Universo en el laboratorio sin partir de un agujero blanco. El éxito del procedimiento no está garantizado, pero pudimos estimar una probabilidad de éxito. Dado que nuestro cálculos dependían de la modificación de una aproximación dudosa en primera instancia, nos pareció alentador que Willy Fischler, Daniel Morgan y Joseph Polchinski obtuvieran los mismos resultados con un método diferente. Se encontró que la probabilidad de éxito dependía de manera crucial de la densidad de energía del falso vacío. Si está dentro de la escala típica de lo que los físicos de partículas llaman “teorías de gran unificación”, entonces la probabilidad sería extraordinariamente pequeña. Por otro lado, es concebible que el nivel de energía asociado con el falso vacío pueda ser mil veces mayor que los correspondientes a las teorías de gran unificación, y entonces la probabilidad de éxito en la producción de Universos sería alta.

11.- De todas formas, nuestros cálculos siguen siendo algo provisionales, ya que las incertidumbres de la gravedad cuántica no han sido superadas. Dado que la creación de un Universo sintético está bastante más allá de las posibilidades experimentales, la única opción para descubrir en el lapso de nuestras vidas si tal cosa es posible, sería el desarrollo de teorías detalladas de la gravedad cuántica y del comportamiento de la materia a energías extremas. Estos dos desafíos están ligados, ya que las interacciones gravitatorias de las partículas elementales se hacen significativas sólo a energías extraordinariamente altas. Un aspecto interesante del trabajo sobre la creación de Universos es el papel de los agujeros de gusano, tubos alargados de espacio que en principio pueden conectar un Universo con otro, o una parte de un Universo con otra parte distante del mismo. En el escenario de la creación de Universos, el "Universo hijo" está inicialmente conectado a su progenitor (hiperUniverso o superUniverso) a través de un agujero de gusano, aunque se separa al cabo de 10-35 segundos. Estos mismos agujeros de gusano tienen relevancia en la cuestión de si las leyes de la física permiten la posibilidad de viajes en el tiempo.

12.- La cuestión de viajes en el tiempo gira alrededor de la duración de los agujeros de gusano. Para que sea posible un viaje en el tiempo, se necesita un agujero de gusano estable, un agujero de gusano grande y duradero, de manera que se pueda viajar a través de él. El escenario comenzaría con la construcción de un agujero de gusano que conectara nuestro Universo consigo mismo, siempre que esto fuera tecnológicamente posible. Luego el aspirante a viajero del tiempo se mantendría en la entrada del agujero de gusano mientras evoluciona normalmente hacia el futuro. Para mantenerse en la entrada tendría que viajar a una velocidad cercana a la de la luz, pero podría hacerlo en círculo. Años o milenios más tarde, sus descendientes podrían regresar al tiempo en que se construyó el agujero de gusano viajando a través de él.

13.-Las leyes de la física, sin embargo, no se muestran muy serviciales con los ingenieros del tiempo. El rápido colapso del agujero de gusano en la producción de un Universo hijo es algo característico. De hecho, si el agujero de gusano es construido a partir de cualquier material “normal”, colapsará antes de que nada pueda atravesarlo. Para que el agujero de gusano se mantenga abierto hace falta un material con una densidad de energía negativa. Aun así hay lugar para la esperanza, pues se sabe que las teorías cuánticas relativistas permiten la existencia de regiones de densidad de energía negativa. Para el tamaño y duración de dichas regiones están limitados, así que nadie ha inventado aún un agujero de gusano teóricamente atravesable. Por otra parte, nadie ha demostrado que sea imposible.

14.-Es lógico preguntarse si tiene sentido alguno jugar con teorías que manejan cantidades del orden de 10-35 segundos. Alguien podría preguntar cómo se puede asignar algún valor o sentido a un número como ese, tan alejado de la experiencia directa. Uno de los rasgos más asombrosos de la ciencia es el éxito espectacular que hemos tenido al extrapolar relaciones matemáticas. Cuando en 1864 Maxwell reunió las ecuaciones de la electricidad y el magnetismo, por ejemplo, éstas se basaban en experimentos de mesa, con distancias que iban de centímetros a metros. Hoy empleamos con éxito estas mismas ecuaciones para describir fenómenos que van desde la escala del núcleo atómico a la del Universo visible. Obviamente, sin embargo, no se puede pretender que tales que tales extrapolaciones sean siempre válidas; pero por ejemplo, cuando se extrapolan las leyes del movimiento de Newton a la mitad de la velocidad de la luz resulta que son erróneas; pero aunque las grandes extrapolaciones no sean necesariamente fiables, siempre constituyen una exploración valiosa.



2.- Posición de Linde:
1.- La primera versión realista de la teoría inflacionaria fue presentada en 1979 por Alexei A. Starobinsky, del Instituto Landau de Física Teórica de Moscú, lo que despertó el interés de los astrofísicos rusos, y durante dos años fue el tema principal de discusión en todos los congresos de cosmología de la antigua U.R.S.S. Su modelo, sin embargo, era bastante complicado (se basaba en la teoría de anomalías en la gravedad cuántica) y no aclaraba el comienzo real de la inflación. En 1981, Alan H, Guth, del Instituto de Tecnología de Massachusetts (MIT), sugirió que el Universo caliente, en un estadio intermedio, podría expandirse exponencialmente. Su modelo se basaba en una teoría, propuesta en 1972 por David A. Dirzhnits y por Andrei Linde del Instituto P.N. Lebedev de Física de Moscú, que interpretaba el desarrollo del Universo primordial como una serie de transiciones de fase. Según esta idea, a medida que el Universo se expandía y enfriaba, iba condensándose en diferentes formas.

2.- La idea de Guth postulaba que el proceso de inflación ocurría mientras el Universo se hallaba en un estado superenfriado inestable. (El superenfriamiento es común en las transiciones de fase) Por ejemplo, en condiciones adecuadas el agua se mantiene líquida por debajo de cero grados. Por supuesto, el agua superenfriada termina congelándose; este suceso correspondería al final del período inflacionario. El recurso al superenfriamiento para resolver muchos de los problemas de la teoría de la gran explosión revestía enorme interés. Por desgracia, como Guth mismo apuntó, el Universo postinflacionario de su hipótesis modelo resulta extraordinariamente inhomogéneo. Después de investigar su modelo durante un año, él mismo lo rechazó en un artículo publicado junto con Erick J.Weinberg, de la Universidad de Columbia.

3.- En 1982 introduje la “nueva hipótesis del Universo inflacionario”, (redescubierta más tarde por Andreas Albrecht y Paul J. Steinhardt, de la Universidad de Pennsylvania). La hipótesis eliminaba muchos de los problemas del modelo de Guth. Pero seguía siendo bastante complicada y poco verosímil, aunque la inflación es algo que surge de forma natural en muchas teorías de partículas elementales. No es necesario invocar efectos de gravedad cuántica, transiciones de fase o superenfriamientos, ni siquiera la hipótesis estándar de que el Universo originalmente estaba caliente. Basta considerar todos los posibles tipos y valores de campos escalares en el Universo primordial y comprobar si alguno de ellos conduce a la inflación. Los lugares donde no se produce inflación se mantienen pequeños, mientras que los dominios donde acontece la inflación terminan siendo exponencialmente grandes y dominan el volumen total del Universo. Dado que los campos escalares pueden tomar valores arbitrarios en el Universo primordial, la hipótesis recibió el nombre de “inflación caótica”. La teoría inflacionaria no se limita a explicar muchas características de nuestro mundo. Predice cosas importantes: a) que el Universo debe ser sumamente plano, ya que la densidad de un Universo plano guarda relación directa con su velocidad de expansión. Hasta hora, los datos observacionales son coherentes con esta predicción; b) Otra predicción comprobable tiene que ver con las perturbaciones de densidad producidas durante la inflación. Se trata de perturbaciones de la distribución de materia en el Universo, que incluso podrían venir acompañadas de ondas gravitacionales. Las perturbaciones de densidad y las ondas gravitacionales dejan su huella en el fondo de radiación de microondas. Provocan que la temperatura de esta radiación difiera algo en puntos del cielo distintos. Esta falta de uniformidad es precisamente lo que encontró el satélite COBE.

4.- Aunque los resultados del COBE están de acuerdo con las predicciones de la inflación, sería prematuro asegurar que el satélite ha confirmado la teoría de la inflación. Pero sí podrían haber refutado tajantemente los modelos inflacionarios. Y no ha habido tal. No existe, hoy por hoy, ninguna otra teoría capaz de explicar por qué el Universo es tan homogéneo y predecir las “arrugas del espacio” descubiertas por el COBE. Pero conviene ser abiertos de mente. Cabe la posibilidad de que nuevos datos observacionales contradigan la cosmología inflacionaria. Por ejemplo, si las observaciones nos dijeran que la densidad del Universo difiere bastante de la densidad crítica, que es la propia de un Universo plano, la cosmología inflacionaria se enfrentaría a un auténtico problema. (Sería posible resolverlo si apareciera, pero no sería nada sencillo).

5.- Hay otra complicación de índole teórica. Los modelos inflacionarios se basan en la teoría de partículas elementales, de la que no podemos decir que esté totalmente asentada. Algunas versiones (en especial, la teoría de supercuerdas) no llevan directamente a la inflación, y obtener la inflación de ese modelo podría requerir ideas de nuevo cuño. Deberíamos continuar la búsqueda de teorías cosmológicas alternativas. Pero son muchos los que creen que la inflación, o algo similar, es absolutamente esencial para la construcción de una teoría cosmológica coherente. La propia teoría inflacionaria cambia con la evolución de la teoría de partículas (la lista de nuevos modelos incluye la inflación generalizada, la inflación natural, la inflación híbrida y muchos otros). Cada modelo tiene características únicas que pueden contrastarse por experimento u observación. La mayoría, sin embargo, se basan en la idea de la inflación caótica.

6.- Podemos imaginarnos como ondas las fluctuaciones cuánticas del campo escalar en el Universo inflacionario. Al principio se mueven en todas direcciones y luego se fijan unas encima de otras. Cada onda incrementa ligeramente el valor del campo escalar en algunas partes y lo disminuye en otras. Atendamos ahora a los lugares donde estas nuevas ondas incrementaron de forma persistente el campo escalar. Aunque poco probables, tales regiones existen, y pueden devenir muy importantes. Estos escasos dominios del Universo donde el campo salta a un valor bastante alto empiezan a expandirse con velocidad creciente. Cuanto más alto suba el campo escalar, con mayor celeridad se expande el Universo; muy pronto, esos dominios poco probables adquieren un volumen mucho mayor que el resto. De esta teoría se infiere que, si el Universo contenía al menos un dominio inflacionario de tamaño suficiente, producirá sin cesar nuevos dominios inflacionarios. La inflación en cada punto particular puede acabar muy de prisa, pero muchos otros puntos continuarán su expansión. El volumen total de todos estos dominios crecerá sin fin. En esencia, un Universo inflacionario crea otras burbujas inflacionarias, que a su vez producen más burbujas.

7.- Este proceso de inflación se mantiene como una reacción en cadena y produce una estructura de tipo fractal. En esta hipótesis, el Universo (entendido en su globalidad, es eterno); cada región particular del mismo podría haber surgido de una singularidad en algún momento del pasado y acabar en otra singularidad en el futuro. Sin embargo, no hay fin para la evolución del Universo en cuanto tal. Menos clara aparece la cuestión del origen. Existe la posibilidad de que todas las partes del Universo fueran creadas simultáneamente en una singularidad inicial de tipo de la gran explosión, aunque la necesidad de esta hipótesis deja de ser obvia. Más aún, el número total de burbujas inflacionarias en nuestro “árbol cósmico” crece exponencialmente con el tiempo. Por tanto, la mayoría de las burbujas (incluida nuestra parte del Universo) crecen ilimitadamente alejadas del tronco de ese árbol. Si bien este modelo hace que la existencia de la gran explosión inicial sea casi irrelevante a todos los efectos prácticos, se puede considerar el momento de formación de cada burbuja inflacionaria como una nueva “gran explosión”. Desde esta perspectiva, la inflación no forma parte del modelo estándar, como se creía quince años atrás; antes bien, la gran explosión es parte del modelo inflacionario.

8.- Al considerar el proceso de autoregeneración del Universo, no se puede evitar recurrir a las analogías, por muy superficiales que parezcan. Y preguntarse si este proceso no evoca nuestra propia historia: Nacimos hace tantos años. Moriremos. Desaparecerá el mundo complejo de nuestras ideas, sentimientos y recuerdos. Pero también existieron quienes nos precedieron, y habrá quien nos suceda. La propia humanidad, si es lo bastante lista, podrá vivir por mucho tiempo. La teoría de la inflación sugiere un proceso similar en el Universo. Uno siente cierto optimismo al saber que, aunque nuestra civilización muera, siempre habrá otros lugares en el cosmos donde la vida surgirá una y otra vez, en todas las formas posibles. ¿Podrían ser las cosas todavía más interesantes? Podrían. Hasta ahora, hemos considerado el modelo inflacionario más sencillo, con un solo campo escalar que tiene un solo mínimo de su energía potencial. Pero los modelos de partículas elementales proponente muchos tipos distintos de campos escalares. La energía potencial de estos campos escalares puede presentar varios mínimos distintos. Ello quiere decir que la misma teoría puede tener distintos “estados de vacío”, correspondientes a diferentes tipos de ruptura de simetría entre las interacciones fundamentales y, en consecuencia, a diferentes leyes de baja energía. (Las interacciones a muy alta energía son insensibles al mecanismo de ruptura de la simetría).

9.- Estas complejidades del campo escalar sugieren que, después de la inflación, el Universo podría queda dividido en dominios exponencialmente grandes, cada uno con leyes físicas de baja energía diferentes. Nótese que tal división ocurre aunque al principio el Universo comience en el mismo estado, correspondiente a uno de los posibles mínimos de la energía potencial. En efecto, las fluctuaciones cuánticas grandes pueden hacer que los campos escalares salten fuera del mínimo y ser lanzados a otro Universo. En algunos modelos inflacionarios, las fluctuaciones cuánticas son tan fuertes, que podría incluso variar el número de dimensiones de espacio y tiempo. Si este modelo es correcto, entonces la física no nos dará, por sí sola, una explicación completa de todas las propiedades de la región del Universo que nos ha tocado habitar. La misma teoría física podría dar lugar a regiones enormes del Universo que poseyesen propiedades muy distintas. Según este modelo, nos hallamos dentro de un dominio tetradimensional que tiene nuestro tipo de leyes físicas, no porque dominios con distinta dimensionalidad y propiedades distintas sean imposibles o improbables, sino por la sencilla razón de que nuestro tipo de vida no podría existir en otros dominios.

10.- ¿Quiere esto decir que entender todas las propiedades de nuestra región del Universo requerirá, aparte de conocimientos de física, una investigación profunda de nuestra propia naturaleza, quizás hasta de nuestra consciencia? Esta conclusión sería sin duda una de las más inesperadas que se pueden sacar de los desarrollos recientes de la cosmología inflacionaria. La evolución de la teoría inflacionaria ha engendrado un paradigma cosmológico nuevo. En la nueva hipótesis, el Universo parece ser a la vez caótico y homogéneo, en expansión y estacionario. Nuestra casa cósmica crece, fluctúa y se reproduce eternamente de todas las maneras posibles, como si se ajustara por sí misma a todas las posibles formas de vida que en ella puedan habitar. Algunas partes de esta nueva teoría, esperamos, permanecerán con nosotros por muchos años. Muchas otras habrán de modificarse para adaptarse a nuevos datos observacionales y a la siempre cambiante teoría de las partículas elementales.


TOPOLOGÍA

Introducción: Si bien es cierto que los conceptos "relatividad" y "cuántica" se usan con la liberalidad y poca precisión para esta época debe ya precisarse que las grandes teorías físicas del siglo XX han sido la teoría cuántica, la relatividad especial, la relatividad general y la teoría cuántica de campos (esta es la más reciente, pues data de la década de los 70). Estas teorías no son independientes unas de otras: la relatividad general se construyó sobre la relatividad especial y la teoría cuántica de campos tiene a la relatividad especial y a la teoría cuántica como ingredientes. Las tres se ocupan -cada una a su manera- de la naturaleza del espacio y del tiempo. En lo que toca al origen del Universo, se ha dicho que la teoría cuántica de campos es la teoría física más precisa; (su precisión es de aproximadamente una parte en 10Ð). Pero actualmente se ha comprobado la corrección de la relatividad general hasta una parte en 1014, en un sentido definido (precisión que no parece estar limitada más que por la de los relojes terrestres).

Los teóricos cuánticos siempre han mantenido que, dada la precisión de su teoría, debería ser la relatividad general la que se amoldase a ella, pero parece que ahora es la teoría cuántica de campos la que tiene que ponerse al día.

A pesar del éxito notable de estas cuatro teorías, no dejan de tener sus problemas: La relatividad general predice la existencia de singularidades del espacio-tiempo. En la teoría cuántica se plantea el "problema de la medición"; y se puede considerar que la solución de los distintos problemas de estas teorías reside en el hecho de que son incompletas en sí mismas. Así, por ejemplo, hay quienes sostienen que la teoría cuántica de campos podría "difuminar" de alguna manera las singularidades de la relatividad general.

ESPACIO-TIEMPO

En setiembre de 1994 dos cosmólogos, Stephen Hawking y Róger Penrose dieron una serie de conferencias en la Universidad de Cambridge, sobre los problemas de la "Naturaleza del Espacio y el Tiempo" Sus puntos de vista publicados por la revista "Investigación y Ciencia" en setiembre de 1996; y de ahí pueden sacarse estas conclusiones tentativas:

a) Ambos difieren en su visión de la mecánica cuántica y de su repercusión sobre la evolución del Universo. Las discrepancias concretas de Hawking y Penrose se refieren a lo que suceda con la información almacenada en los agujeros negros y a lo que distinga el inicio del Universo de su final. Uno de los principales descubrimientos de Hawking (1973) es que los efectos cuánticos pueden provocar que los agujeros negros emitan partículas. El agujero negro se evaporaría en tal proceso, de manera que al final puede que no quedase nada de su masa original. Pero, durante su formación, los agujeros negros engulleron una gran cantidad de datos, como son los tipos, las propiedades y las configuraciones de las partículas que cayeron en ellos. Aunque la teoría cuántica exige que tal información se conserve, cuál sea en último término su destino sigue siendo un tema muy debatido.

b) Los dos creen que cuando un agujero negro irradia pierde la información que contenía. Pero Hawking insiste en que la pérdida es irrecuperable, mientras que Penrose argumenta que queda equilibrada por mediciones espontáneas de estados cuánticos que reintroducen información en el sistema. Ambos coinciden en la necesidad de una futura teoría cuántica de la gravedad para describir la naturaleza, pero sus opiniones sobre algunos aspectos de la misma son discrepantes. Penrose piensa que, aunque las fuerzas fundamentales de la física de partículas sean simétricas en el tiempo, es decir, que no cambiarían aunque el tiempo se invirtiese, la gravedad cuántica violará esta simetría. La asimetría temporal sería la explicación de por qué el Universo era tan uniforme en sus inicios, según revela la radiación de fondo de microondas remanente de la gran explosión, mientras que al final tendría que estar muy desordenado.

Penrose intenta encapsular esta simetría temporal en su hipótesis de la curvatura de Weyl. El espacio-tiempo se curva por la presencia de materia, como descubrió Albert Einstein. Pero puede también tener una curvatura intrínseca, una cantidad conocida como la curvatura de Weyl. Las ondas gravitacionarias y los agujeros negros permiten que el espacio-tiempo se curve incluso en regiones que estén vacías, por ejemplo. Es muy probable que la curvatura de Weyl fuese nula en el Universo primitivo, pero Penrose cree que, en un Universo agonizante, la abundancia de agujeros negros originaría una curvatura de Weyl elevada, propiedad que distinguiría el final del Universo de su inicio.

c) Hawking está de acuerdo en que la gran explosión y la gran implosión final han de ser distintas, pero no aceptar una asimetría temporal de las leyes de la naturaleza y cree que la razón básica de la diferencia ha de encontrarse en la manera de esta programada la evolución del Universo. Postula una especie de democracia cuando afirma que ningún punto del Universo puede ser especial; por tanto, el Universo no puede tener fronteras. Esta propuesta de "no-frontera" es la que, según Hawking, explica la uniformidad de la radiación de fondo de microondas. Los dos físicos discrepan, por último, en su interpretación de la mecánica cuántica. Hawking considera que lo único que tiene que hacer una teoría es proporcionar predicciones que casen con los datos. Penrose piensa que no basta con comparar las predicciones y los experimentos para explicar la realidad, indicando que la teoría cuántica exige que las funciones de onda se "superpongan", lo que puede conducir a situaciones absurdas. Es así como ambos investigadores retoman los hilos de los famosos debates que se produjeron entre Einstein y Niels Bohr sobre las extrañas implicaciones de la teoría cuántica.

La posición de Hawking: De acuerdo con este cosmólogo se deben tomar en cuenta estos criterios:

1) La teoría cuántica de los agujeros negros parece llevar a la física a un nuevo nivel de impredecibilidad, nivel que supera la ya usual incertidumbre asociada a la mecánica cuántica. Ello se debe a que los agujeros negros parecen tener entropía intrínseca y perder información de nuestra región del Universo. (no todos los físicos aceptan estas afirmaciones y rechazaron la idea de que la información sobre el estado cuántico de un sistema se pudiera perder, pero no han tenido éxito aún al intentar explicar cómo puede salir la información de un agujero negro.

2) La gravedad es una fuerza atractiva que tenderá a reunir la materia del Universo en objetos tales como estrellas y galaxias. La presión térmica, en el caso de las estrellas, y la rotación y los movimientos internos, en el de las galaxias, las permiten mantenerse durante un tiempo frente a la contracción progresiva, pero el calo o el momento angular terminarán por desaparecer y el objeto empezará a contraerse. Si su masa fuese inferior a una vez y media la del Sol, aproximadamente, la contracción se frenaría por la presión de degeneración de los electrones y de los neutrones y el objeto se estabilizaría en forma de enana blanca o de estrella de neutrones, respectivamente. Pero si la masa superase tal límite, no habría nada que pudiera aguantarla y evitar que siguiese contrayéndose. Una vez que se hubiese reducido a un cierto tamaño crítico, el campo gravitatorio de su superficie sería tan intenso que los conos de luz se curvarían hacia dentro. Incluso, los rayos de luz salientes se curvarían unos hacia otros, convergiendo en vez de divergir porque hay una superficie atrapante cerrada.

3) Hay, entonces una región del espacio-tiempo de la que no es posible escapar hacia el infinito, (un agujero negro) A su frontera se le llama el horizonte de sucesos y es una superficie nula formada por los rayos de luz que no pueden escapar hacia el infinito. Se pierde mucha información cuando un cuerpo se desploma y forma un agujero negro. Son muchos los parámetros que lo describen, entre ellos los tipos de materia y los momentos multipolares de la distribución de masas. Pero el agujero negro resultante es completamente independiente del tipo de materia y pierde rápidamente todos los momentos multipolares, salvo los dos primeros: el momento monopolar, que es la masa, y el dipolar, que es el momento angular. ¿Cómo enfrentarse al problema de la pérdida de información?

4) Hay dos enfoques: a) Enfoque clásico: La pérdida de información no tiene importancia en la teoría clásica (donde podría decirse que toda la información sobre el cuerpo colapsante seguía estando dentro del agujero negro) Si a un espectador externo le resultaría muy difícil determinar cómo era el primero, pero en principio no sería imposible. En realidad el observador nunca lo perdería de vista. Le parecería que se frenaba y se debilitaba a medida que se aproximara al horizonte de sucesos, pero seguiría pudiendo ver de qué estaba hecho y cómo se distribuía su masa. b) Enfoque cuántico: Para la teoría cuántica es distinto. En primer lugar, el cuerpo colapsante solo emitiría un número limitado de fotones antes de cruzar el horizonte de sucesos, que sería insuficientes para portar toda la información relativa a él. Esto significa que en la teoría cuántica no hay manera de que un observador externo pueda medir el estado del cuerpo colapsante. Se podría pensar que esto no tiene mucha importancia, ya que la información seguiría estando en el agujero negro, aunque no se la pudiera medir desde fuera. Pero aquí es donde interviene el segundo efecto de la teoría cuántica de los agujeros negros.

5) La teoría (cuántica) hace que los agujeros negros irradien y pierdan masa. Parece que terminarán por desaparecer completamente, llevándose consigo la información que contenían. Matemáticamente pudo probar que esta información se pierde realmente y que no hay forma de que se recupere. Esta pérdida de información introduciría un nuevo nivel de incertidumbre en la física, distinta de la incertidumbre que suele asociarse a la teoría cuántica. Por desgracia y al contrario de lo que sucede con el principio de Incertidumbre de Heisenberg, este nivel adicional será bastante difícil de confirmar experimentalmente en el caso de los agujeros negros.

La posición de Penrose:

1) Mientras Hawking considera la pérdida de información debía a los agujeros negros como una incertidumbre extra de la física, independiente de la incertidumbre de la teoría cuántica, yo lo considero como una incertidumbre "complementaria". Es posible que algo de información se escape en el momento de la evaporación del agujero negro...pero esta pequeña ganancia de información será mucho menor que la pérdida debida al colapso (en todas las alternativas que considero razonables de tal desaparición). Para demostrarlo se puede recurrir a dos ejemplos:

Primer ejemplo:
"Agujero Negro" encerrado: Si, haciendo un experimento imaginario, encerrásemos un agujero negro en una caja bien grande, podríamos considerar la evolución de la materia de su interior en el espacio de las fases. En aquella región del espacio de las fases correspondiente a las situaciones en que haya un agujero negro, las trayectorias de la evolución física convergerían y los volúmenes que siguen estas trayectorias se contraerían, debido a la información perdida en la singularidad de dentro del agujero negro. Tal contracción contradice directamente el teorema de la mecánica clásica conocido como "Teorema de Liouville", que afirma que los volúmenes del espacio de las fases permanentes constantes...El espacio-tiempo de un agujero negro viola pues esta conservación. sin embargo, tal como lo concibo, esta pérdida de volumen del espacio físico se compensa por un proceso de medida cuántica "espontánea", en el que se gana información y los volúmenes del espacio de las fases aumentan. Esta es la razón por la que considero que la incertidumbre debida a la pérdida de información de los agujeros negros es "complementaria" de la incertidumbre de la teoría cuántica: son las dos caras de una misma moneda.

Segundo ejemplo:
Gato de Schörodinger: Consideremos ahora el experimento imaginario del gato de Schrödinger. Describe lo que le sucede a un gato situado dentro de una caja en la que se emite un fotón que incide sobre un espejo semiplateado; la parte transmitida de la función de ondas del fotón incide a su vez sobre un detector que, si detecta el fotón, dispara automáticamente un proyectil que mata al gato, mientras que, en caso contrario, el gato seguirá vivo. La función de ondas del sistema es una superposición de estas dos posibilidades...Pero ¿por qué no podemos percibir superposiciones macroscópicas: de estos estados, sino solo las alternativas macroscópicas "el gato está muerto" y/o "el gato está vivo"? Hay algo que no funciona en las superposiciones de las geometrías espacio-temporales alternativas que se producirían cuando empezara a estar involucrada la relatividad general. Puede que la superposición de dos geometrías diferentes sea inestable y se desintegre en una de ambas. Las geometrías podrían ser el espacio-tiempo de un gato vivo y el de un gato muerto, por ejemplo, por lo que denomino reducción objetiva a esta desintegración en una u otra alternativa...¿Qué relación tiene esto con la longitud de Plank, 1033 centímetros?

2) ¿Cuál es entonces la solución? El criterio de la naturaleza para determinar cuando dos geometrías difieren significativamente dependería entonces de la escala de Plank, lo que determina la escala temporal en que se produce la acción a una u otra alternativa.

Discusión teórica posterior (Hawking):

Después de los puntos de vista expuestos el cosmóloo Hawking plantea estas contra - argumentaciones:

a) Hay tema sobre el cual Roger (Penrose) y yo tenemos puntos de vista muy distintos: la flecha del tiempo. Se trata de la distinción tan clara que hay entre las direcciones hacia adelante y hacia atrás del tiempo en nuestra región del Universo. Basta con ver una película en sentido inverso para percibirla: las copas, en vez de caer de las mesas y romperse, se recomponen y vuelven a situarse sobre la mesa.

b) Las leyes locales que rigen los campos físicos son temporalmente simétricas o, con mayor precisión, invariantes CPT (carga-paridad-tiempo). La diferencia observada entre el pasado y el futuro tiene que provenir entonces de las condiciones de contorno del Universo. Aceptemos que el Universo fuese espacialmente cerrado y que se expandiese hasta un tamaño máximo para luego volver a reducirse. Penrose insiste en que este Universo sería muy diferente al empezar y al acabar la historia. Parece que el Universo era muy suave y regular en lo que llamamos su inicio, mientras que creemos que será muy desordenado e irregular cuando se desplome de nuevo. Como existen muchas más configuraciones desordenadas que ordenadas, esto implicaría que las condiciones iniciales tendrían que haberse elegido con increíble precisión. Parece por tanto que las condiciones de contorno de los dos extremos del tiempo tendrían que ser distintas.

c) La propuesta de Roger es que el tensor de Weyl se anularía en uno de los extremos del tiempo, pero no en el otro. El tensor de Weyl es aquella parte de la curvatura del espacio-tiempo que no está localmente determinada por la materia, según las ecuaciones de Einstein. Tendría que ser pequeño en las primeras etapas del Universo, suaves y ordenadas, y grande en las finales del colapso. Es así como se distinguirían los extremos del tiempo y se explicaría su flecha.

Esta propuesta parece imprecisa. En primer lugar no es invariante CPT, cosa que Penrose considera una virtud. Por lo contrario creo que uno se debe atener a las simetrías a menos que haya razones poderosas para abandonarlas. En segundo lugar, si el tensor de Weyl hubiera sido exactamente cero en el Universo primitivo, tendría que ser completamente homogéneo e isótropo, y así hubiera permanecido por el resto del tiempo. Esta hipótesis no podría explicar las fluctuaciones del fondo ni las perturbaciones que se originaron desde las galaxias hasta nosotros mismos.

d) Penrose ha puesto el dedo en una diferencia importante entre los extremos del tiempo, si bien el hecho de que el tensor de Weyl fuese pequeño en un extremo no se debería imponer como una condición de contorno ad hoc sino que debería deducirse de un principio más fundamental, la propuesta de no-contorno. ¿Cómo pueden diferenciarse los extremos del tiempo? ¿Por qué las perturbaciones tendrían que ser pequeñas en un extremo y no en el otro? La razón es que hay dos posibles soluciones complejas de las ecuaciones de campo. Resulta claro que una solución corresponde a uno de ellos y la otra al otro. En un extremo el Universo era muy suave y el tensor de Weyl era muy pequeño. No podía, sin embargo, ser exactamente cero, ya que esto hubiera sido una violación del principio de incertidumbre. Antes bien tendría que haber pequeñas fluctuaciones que más adelante aumentarían hasta originar galaxias y cuerpos como nosotros. En cambio el Universo tendría que ser muy irregular y caótico en el otro extremo del tiempo, con un tensor de Weyl muy grande. Ello explicaría la flecha del tiempo observada y por qué las copas caen de las mesas y se rompen en vez de recomponerse y retornar a su lugar.

e) Penrose considera que el colapso de la función de ondas introduce la violación de CPT en la física. Cree que se producen tales violaciones en dos situaciones por lo menos: la cosmología y los agujeros negros. Estoy de acuerdo en que es la forma en que hagamos las preguntas sobre las observaciones lo que podría introducir la asimetría temporal. Pero rechazo totalmente la idea de que haya algún proceso físico que corresponda a la reducción de la función de ondas o que esto tenga nada que ver con la gravedad cuántica o la consciencia. Eso me suena a magia, no a ciencia. En estas conferencias se han visto muy claras las diferencias que hay entre Roger y yo. El es un platónico y yo soy un positivista. A él le preocupa que el gato de Schrödinger pueda estar en un estado cuántico en el que se encuentre mitad vivo y mitad muerto, pues piensa que esto no puede corresponder a la realidad. Pero esto a mí no me preocupa. Yo no pido que una teoría corresponda a la realidad, ya que no sé qué es eso. La realidad no es una propiedad que pueda comprobarse con papel de tornasol. Todo lo que a mí me preocupa es que la teoría pueda predecir los resultados de las medidas. La teoría cuántica lo hace con mucho éxito.

Discusión teórica posterior (Penrose):

Por su parte Penrose refuta las argumentaciones de Hawking con estas posiciones:

a) Si he entendido bien la postura de Hawking, no me parece que estemos muy en desacuerdo en este asunto (la hipótesis de la curvatura de Weyl). La curvatura de Weyl de una singularidad inicial es aproximadamente cero Stephen arguye que tendría que haber pequeñas fluctuaciones cuánticas en el estado inicial y señala que la hipótesis de que la curvatura de Weyl inicial sea cero en la singularidad inicial es clásica. Está claro que hay cierta flexibilidad en la formulación precisa de la hipótesis. Pequeñas perturbaciones son aceptables desde mi punto de vista y lo son ciertamente en el régimen cuántico; sólo necesitamos algo que las mantenga próximas a cero.

b) Quizá la propuesta de no-contorno de James Hartle y Hawking sea un buen candidato para la estructura del estado "inicial". Pero me parece que necesitamos algo muy distinto para tratar el estado "final". Una teoría que explique la estructura de las singularidades tendría que violar (CPT y otras simetrías) para que resultase algo del tipo de la hipótesis de la curvatura de Weyl). Este fallo de la simetría temporal podría ser muy sutil; estaría implícito en las reglas de cualquier teoría que fuera más allá de la mecánica cuántica.

c) Al inicio de este debate Hawking dijo que piensa que él es un positivista mientras que yo soy un platónico. Me parece muy bien que él sea un positivista, pero, por lo que a mí se refiere, creo que lo importante es que soy un realista. Y si se compara este debate con el famoso de Bohr y Einstein de hace unos setenta años, diría que sorprendentemente él hace el papel de Bohr mientras que yo hago el de Einstein, puesto que Einstein argüía que debería existir una especie de mundo real, no necesariamente representado por una función de ondas, mientras que Bohr insistía en que la función de ondas no describe un micromundo "real" sino tan solo el "conocimiento" útil para hacer predicciones.

d) Se suele considerar que Bohr resultó vencedor, hasta el punto de que, según la reciente biografía de Einstein de (Abraham) Pais, hubiera dado lo mismo que Einstein se hubiese dedicado a pescar después de 1925. Es cierto que no progresó mucho, pero sus penetrantes críticas fueron muy útiles. Creo que la razón por la que Einstein no siguió haciendo grandes progresos en teoría cuántica fue que faltaba en ella un ingrediente crucial. Este ingrediente faltante era el descubrimiento que haría precisamente Hawking, medio siglo más tarde, de la radiación de los agujeros negros. Es esta pérdida de información, relacionada con la radiación de los agujeros negros, lo que proporciona el nuevo giro. Pero la mecánica cuántica sólo existe desde hace unos tres cuartos de siglo, lo que no es mucho, si se compara, por ejemplo, con la teoría gravitatoria de Newton. Por tanto no me sorprendería que la mecánica cuántica tuviera que modificarse para los objetos macroscópicos y que de paso modifique el sustrato en que se basa Hawking.

Conclusiones a las nuevas formulaciones teóricas: Parece innecesario concluir que la física ,con la colaboración de la matemática ha entrado en una encrucijada muy dinámica ,de mucha imaginación en donde ya las reglas de la física clásica sirven de referencia y no como determinantes. Pero curiosamente , a modo de ejemplo en las universidades se sigue enseñando la física clásica y la relatividad y la cuántica son materias de posgrado. Y en la astronomía los telescopios y radiotelescopios siguen imperturbables sus observaciones celestes y sus operadores mirando de reojo a los físicos que se ocupan de la teorización que a duras entienden. .Y en el área de la astronáutica los cálculos de las trayectorias de las naves tripuladas y no tripuladas se siguen haciendo acudiendo a la física newtoniana y se siguen usando las estrellas para modificar rumbos, sin parar mientes en toda la revolución cuasi-metafisica que subyace en el mundo de las partículas y de la teorización sobre el Universo y su inicio .



POLÉMICAS OBSERVACIONALES:

Pero no solo las teorías son polémicas, también las observaciones lo son , porque el primero se refiere al descubrimiento de unas grandes estructuras fuertemente masivas llamadas "El Gran Atractor" y la "Gran Muralla" respectivamente que causa gran polémica; el segundo es el descubrimiento por la sonda espacial COBE, de las inhomogeneidades del Unvierso, lo que es una comprobación de la teoría del B.B.; el tercero es la duda que arroja -a partir de 1994 la medición de la edad de estrellas, cuya antiguedad pone en serios aprietos a la cosmología, porque resulta que el Universo, en su conjunto sería de menor antiguedad que algunos de sus constituyentes. La medición más exacta de las fuentes luminosas diversas que sirven para crear polémica sobre la edad de diferentes complementos del Universo es el resultado directo de la utilización de nuevas técnicas, así como de nuevos artefactos, entre ellos el Telescopio Espacial Hubble debidamente refaccionado, luego de haber estado dando información severamente limitada por errores en el pulido de su lente principal. Al aumentarse las facilidades tecnológicas ha sido posible escudriñar más y mejor el espacio y de esa observación resaltan tres temas controversiales.

CUERDAS O CORDONES COSMICOS –GRAN ATRACTOR

Un equipo de astrónomos australianos describe en 1989 la primera prueba real del fenómeno conocido como “ Cuerdas Cósmicas”, (“Cosmic Strings”) que no deben confundirse con la Teoría de Cuerdas ni con la Teoría de Supercuerdas. . Formados apenas un segundo después del nacimiento del Universo 15 mil millones de años atrás, estos “traga - galaxias” son ópticamente invisibles, extremadamente densos y ejercen una inmensa fuerza de atracción, arrastrando cerca de sí a las galaxias a una velocidad de 1.500 kms por segundo. Las características de las observaciones son estas:

1) En dos años de observaciones del cielo austral, utilizando el gran telescopio óptico de Sidig Springs y el radiotelescopio óptico de 64 metros de diámetro en Parkes, Gales del Sur, los científicos efectuaron relevamientos de la velocidad de alrededor de 1.500 galaxias y localizaron y midieron un cerco de “cuerdas cósmicas” por la enorme fuerza de atracción. Se trata del llamado “Great Attractor” (Gran Atractor) individualizado en 1987 por astrónomos norteamericanos y británicos: una gigantesca masa esférica de un peso equivalente al de 500 mil galaxias, situado a 150 millones de años luz en lo profundo del cielo austral hacia la constelación del Centauro. Los astrónomos establecieron también que miles de galaxias, comprendida nuestra Vía Láctea, “caen a velocidades de 600 y 1.500 kms por segundo hacia el “gran Atractor”.

3) Según una relación presentada en 1989 en Sidney en un Simposio Internacional sobre los inicios del Universo; los científicos australianos fueron más allá trazando un mapa de los efectos sobre las galaxias vecinas: determinaron que su forma no es esférica como se consideraba sino alargada y cilíndrica y consideran que se trata de un “cerco de cordón cósmico” en movimiento.

El equipo dirigido por el astrónomo Don Mathewson determinó que miles de galaxias se dirigen velosísimas hacia el “Gran Atractor” que resulta, sin embargo, invisible porque no fue individualizada ninguna galaxia coincidente con esta descripción.

Pero no sólo los australianos lograron medir la velocidad de las galaxias, que se dirigen hacia la masa invisible, sino individualizaron también galaxias más allá de ella, que fueron atraídas por la masa descubierta que actúa como un gran imán. Las consecuencias teóricas que se desprenden de este descubrimiento son las siguientes:

Es la primera vez que se observan estas galaxias que dan prueba concluyente de la existencia del fenómeno y también su exacta colocación en el Universo. Los “cordones cósmicos” viajan a velocidades un poco inferiores de la luz y están dotados de inmensa energía. También se postula que se contraen violentamente terminando por agotar toda la energía en sus rotaciones y que son extremadamente sutiles y pesados: 100 millones de millones de toneladas por centímetro. Pero más importante es que conservan en sí el ambiente primitivo que existía en el primer segundo después del Big Bang de 15 mil millones de años atrás, cuando había una sola fuerza unificada, y dan vitales indicios acerca del origen del Universo.

2) Dos astrónomos norteamericanos -Hoffman y Zurek- de Los Alamos, piensan que esta masa podría estar formada por materia cósmica primordial, de una densidad y energía jamás detectadas por los instrumentos de que se dispone en la actualidad, aunque por ahora nadie vio al Gran Atractor, sus descubridores se basaron en cálculos matemáticos para detectarlo y determinar su diámetro, masa y otras características. El descubrimiento de ese gran imán perturba la Ley de Hubble. Según la explicación más aceptable, las galaxias serían desviadas de su camino por la atracción gravitacional de masas muy densas de materia).

3) Según el astrónomo francés Pascal Fouqué, la existencia y la localización del Gran Atractor debería considerarse sólo en el terreno de las hipótesis. Según sus propias observaciones, nada permite una conclusión clara.

4) Por su parte, el norteamericano Alan Dressler reconoce que la cuestión todavía está por demostrarse, pero insiste en que a partir de 1987 se pudo demostrar la existencia del Gran Imán, (como también se le conoce) con más de 250 nuevas mediciones, desde varios puntos de la Tierra.

Un comportamiento de las observaciones anteriores se da a conocer a finales de 1992 por parte de los astrónomos del Centro Astrofísico de Harvard, Margareth J. Geller y John P. Huchna quienes trabajaban en la elaboración de una mapa tridimensional del Universo (desde 1985) anuncian el descubrimiento de racimos de galaxias formando burbujas gigantescas. Las características que se desprenden de este anuncio son las siguientes:

1) Las galaxias se encuentran en la superficie de estas burbujas gigantescas vacías de hasta 150 millones de años luz de diámetro, alternando con vacíos de proporciones similares. Asimismo se encuentra efectivamente una gigantesca banda alargada de galaxias de unos 500 millones de años luz de diámetro que representa una concentración de materia muy superior a la existente en el “Gran Atractor” (o gran imán).

Las inmensas estructuras encontradas ponen en entredicho la teoría cosmológica moderna que se fundamenta en la distribución homogénea de la materia, lo que, a su vez, deja en situación difícil la explicación de un Universo con un inicio suave y homogéneo.

2) La distribución de galaxias en el espacio es casi la única información disponible sobre la cosmografía a gran escala. A lo largo de los últimos diez años, se han elaborado mapas tridimensionales de distribución de galaxias que permiten tener una visión más completa de la macroestructura cósmica. Para calcular la distancia a la que se encuentra una galaxia se mide el desplazamiento hacia el rojo de la radiación que emite. Interpretándolo como efecto Doppler se puede estimar a qué velocidad se está alejando (La ley de Hubble dice que dicha velocidad aumenta con la distancia a la que se halla la galaxia en cuestión).

3) Conocidas la distancia y la dirección en el cielo se puede construir una imagen tridimensional en que las galaxias se disponen en filamentos y estructuras más o menos aplanadas que dejan a su vez grandes zonas vacías sin la presencia aparente de materia luminosa. Esta distribución es lo que se conoce como "Universo de burbujas" en el que los grandes vacíos serían como las pompas de jabón que se forman en la espuma.

4) La imagen del Universo va de ese modo cambiando de acuerdo con las escalas de observación, desde estructuras próximas que no presentan homogeneidad hasta escalas donde la materia muestra una distribución uniforme. Para interpretar esa transición varios astrofísicos han elaborado un modelo teórico denominado SLOAM que se funda en el análisis de la distribución de galaxias y cúmulos galácticos en escalas que van desde 40 hasta 200 millones de años luz. (A estas escalas no hay homogeneidad en el Universo).

5) En esta imagen, las galaxias se distribuyen en la superficie de las burbujas, forman estructuras plana. (tipo la Gran Muralla) o filamentosas (como la cadena de Perseus-Pisces) Las zonas más densas del tejido cósmico serían los cúmulos ricos en galaxias. La distribución de galaxias a escalas inferiores a los 40 millones de años luz no es homogénea, sino que presenta una fuerte tendencia al agrupamiento. Para medir estadísticamente el agrupamiento se indica cuántas galaxias se esperan encontrar en promedio dentro de una esfera de radio r centrada en una galaxia elegida al azar. Si las galaxias se distribuyesen aleatoriamente en el espacio, esta cantidad sería proporcional al volumen de la esfera, es decir, variaría con la escala como una constante por r3. Las características más relevantes de la distribución galáctica arroja estos resultados:

a) El diámetro de los grandes vacíos que se han observado en la distribución de galaxias alcanza en algunos casos los 200 millones de años luz.

b) Pero también se ha detectado que la tendencia al agrupamiento no es tan fuerte como la manifestada para escalas inferiores a los 40 millones de años luz.

c) El valor de la dimensión de correlación para el catálogo de galaxias obtenido por el satélite IRAS que observa en el infrarrojo indica que las galaxias del IRAS presentan un agrupamiento inferior al de las galaxias observadas en el óptico.

d) Las galaxias del IRAS, que son sobre todo espirales, se encuentra, en general, en entornos menos densos que las observadas en el óptico, entre las que hay una buena proporción de galaxias elípticas. Estas últimas prefieren habitar en el interior de los cúmulos ricos.

e) Para escalas entre 40 y 220 millones de años luz, los cúmulos presentan un grado de agrupamiento mayor que el de las galaxias.

6) En un futuro próximo se dispondrá de un catálogo tridimensional de más de un millón de galaxias. Se obtendrá con el empleo de técnicas observacionales que permiten medir simultáneamente los desplazamientos hacia el rojo de muchas galaxias, gracias a complejos sistemas de fibras ópticas. El catálogo representará un salto cualitativo en el conocimiento de la macroestructura cósmica, y será entonces cuando se podrá contrastar los modelos teóricos con las observaciones que prometen ser extraordinariamente reveladoras acerca del verdadero carácter del Universo.

7) Una de las dificultades serias para hacer cálculos cosmológicos lo constituye el desplazamiento de la Tierra que “contamina” la observación .igual sucede con el desplazamiento alrededor del Sol que se desplaza a su vez dentro del Sistema Solar. El propio sistema solar gravita alrededor del centro de la galaxia a 230 Km/s; la galaxia gravita alrededor del centro de masa del grupo galáctico Local a 40 Km/s, en dirección que apunta hacia la galaxia Andrómeda. Hay - sin embargo un remanente de velocidad de 600 Km/s que parcialmente se explica así: todo el grupo local es atraído a su vez por el cúmulo galáctico situado en Virgo, el que también es atraído por el Supercúmulo galáctico situado entre Hydra - Centauro Pesseo - Piscis y finalmente (al menos por ahora) se estima que toda esta masa es atraída por el Gran Atractor.

8) El Gran Atractor cuyo centro de masa se calcula en Virgo, por su parte, esta inmerso en la estructura a gran escala del resto del Universo, que en la actualidad se ha logrado mapear en cerca de una cienmilésima parte del volumen total del Universo en dónde se observa que los supercúmulos galácticos se encuentran distribuidos en filamentos o barreras que circundan grandes vacíos casi - esféricos y grandes espacios que semejan torbellinos de materia.

9) A su vez se estima por observación y cálculo relativista en base a simulaciones por computadora, por extrapolación que la estructura global del Universo es como sigue:

a) El Universo se compone de burbujas (cómo células) de unos 100 megatones de diámetro cada una.
b) Dentro de cada burbuja el espacio está casi vacío, dado que la galaxia, y los cúmulos se encuentran en la periferia.
c) Las líneas de intersección de las burbujas están formadas por supercúmulos galácticos que cubren distancias de 1000 megaparseus (tres billones de años luz).
d) La composición “celular” del Universo está distribuida de manera uniforme como lo demuestra la medición de la radiación de fondo a 2.7 grados K.

Ahora bien el límite macro según la teoría comúnmente aceptada sería el Universo y el límite micro el quark. Sin embargo hay planteamientos teóricos que en lo que toca a la organización jerárquica proponen a nivel macro - macro que el Universo conocido es el Local, porque también habrían otros Universos cuyas características físicas son diferentes. Y a nivel micro - micro se ha propuesto que los quarks no son la expresión mínima última. Mientras que la propuesta que se refiere a otros Universos es estrictamente teórica, no sucede así en el caso de los quarks dado que a mediados de 1996 se ha encontrado que


LOS HALLAZGOS DE COBE

Pese a las dudas metodológicas planteadas por Bondi; al ataque empírico proveniente de los físicos del Plasma y a otras Cosmologías rivales, así como a las discordancias provenientes de la observación de estructuras tan masivas como el “Gran Atractor” o de la “Gran Muralla”, parte de la incógnita sobre el origen del Universo que ha obsesionado al hombre a través de todos los tiempos, parece comenzar a despejarse con la confirmación de la teoría del B.B. cuando el 23 de abril de 1992 George Smoot, astrofísico de la Universidad de California anuncia, en una reunión de la Sociedad Norteamericana de Física, en Washington D.C., el hallazgo de enormes concentraciones de material sideral captadas por el Satélite COBE (Cosmic Back Ground Explorer) lanzado al espacio por la NASA en 1989. Las características más relevantes de los hallazgos de COBE son las siguientes:

a) Lo que el satélite captó, después de un año de trabajo de recolección de datos fueron: “fluctuaciones de las radiaciones del trasfondo del Universo”, que, para los científicos que dirigieron la investigación son las evidencias largamente buscadas de que esa Gran Explosión Cósmica se produjo hace 15 mil millones de años y que continúa actualmente.

1) Con esas radiaciones el satélite elaboró un mapa del espacio que corresponde a 300 mil años después de la explosión, que muestra las concentraciones de materia sideral. Se trata, según Smoot de “las estructuras mayores y más antiguas del Universo que se extienden en hasta 95 mil billones de kilómetros y datan de 15 mil millones de años atrás”.
2) El satélite encuentra, que el fondo de radiación se encuentra a una temperatura de 2.73° Kelvin tal y como se conoce; esto es simplemente una reconfirmación de una prueba ya admitida como un argumento poderoso que precisamente da la “estocada de muerte” a la Teoría del Estado Estacionario. No obstante esta prueba es débil, aunque contundente dado que si el Universo en el momento de tener 300 mil años de antigüedad mostraba una gran uniformidad térmica, no coincide con el Universo observable (grandes concentraciones de materia distribuidas en estructuras de muy diversa naturaleza).
3) Estas estructuras solo pueden ser la resultante - en teoría - del desarrollo y crecimiento de pequeñas irregularidades “semillas” que fueron proyectadas en todas direcciones a grandísima velocidad según expone la teoría inflacionista. COBE fue lanzado precisamente con la idea de ubicar tales variaciones (semilla) las que, medidas en términos de radiación podrían ser detectadas debido a diferencias térmicas.
4) Para lograr el máximo de exactitud los diseñadores de las computadoras de Cobe provistos de un mapa celestial especialmente diseñado, las calibraron para eliminar todo tipo de distorsión térmica (por ejemplo: programaron la sustracción automática de datos térmicos que fueran el resultado de la radiación de 2.73 ° k; los movimientos de rotación, traslación terrestre y otros de los nueve movimientos restantes que caracterizan la Tierra; también eliminaron datos que podrían causar confusión resultante de radiaciones que provienen tanto de la Vía Láctea como de radares terrestres.
5) Todas estas correcciones permitirían al satélite de NASA detectar variaciones muy pequeñas de las radiaciones en el Universo para compararlas con el mapa cósmico referencial y desechar así lo que no fuese el objetivo buscado. La búsqueda se centró en varias longitudes de onda y, por ejemplo, el descubrimiento efectuado por COBE que causa la gran sensación mundial se efectúa en la banda de 5.7 mm y la graduación de los censores de Cobe estaba ajustada para que fueran capaces de detectar variaciones del orden de décimas de millonésimas de un grado Kelvin, para lo cual el satélite fue equipado con unidades especiales denominadas DMR (Differential Microwave Radiometer) que envían sus señales a antenas terrestres.
6) El hallazgo de COBE Smoot son “señales cuya exactitud se calcula en 0.000003° kelvin que resultan de eliminar todas las interferencias causadas por el ruido instrumental (cerca del 90%)”. El 10% restante son por lo tanto las “variaciones de densidad que dieron origen a las estructuras que hoy se observa en el Universo y que se detecta por su radiación calórica” ( )
7) La teoría inflacionista señala que el Universo experimentó una expansión rapidísima que se ubica en el momento 10 EXP.- 35 segundos a 10 EXP.- 30 segundos después del inicio del Big Bang. Igualmente predice que este proceso fue tan rápido que no hay muestras de variaciones en la escala expansiva de dicho proceso. Efectivamente Cobe ha comprobado la ausencia de las variables escalares, lo que de paso, se constituye en un respaldo para este detalle previsto por la teoría inflacionista.
8) Otro aspecto importante de este descubrimiento es que los resultados se han confrontado con más de cien variante propuestas al Modelo Estandard Big Bang, que predicen como estaría formada y distribuida la materia en el Universo, que no se observa porque se supone es negra o está integrada bien por antimateria o por neutrinos.
9) A partir de este descubrimiento deberá iniciarse mucho trabajo para hacer coincidir lo que COBE ha detectado con los planteos cósmicos anteriores. COBE, por otra parte permite ahora a los cosmologistas tener un dato exacto que puede ser incluido en su ecuaciones para calcular lo que pudo acontecer en el Universo inicial. Igualmente COBE ha permitido a la cosmología del Big Bang y a sus teorías adyacentes ganar credibilidad, al mismo tiempo que ha aportado una comprobación experimental más de mucho peso, para el modelo estandard Big Bang convenientemente relacionado con todos los aportes teóricos y observacionales previos a esa prueba memorable.


INTERPRETACIONES POSTERIORES

Después de haberse dado a la publicidad los hallazgos de COBE, los aspectos más relevantes sobre la información recogida son los siguientes:

• Tras una rueda de prensa celebrada con ocasión de una conferencia de la American Phisican Society, en Washington en febrero de 1994. Uno de los principales responsables de las mediciones de COBE, el astrofísico Jorge Smoot, expuso lo siguiente:
• después de haber evaluado 300 millones de datos de COBE todos los científicos tienen por seguro que la radiación de fondo del Universo no es absolutamente homogénea, sino que presentan una estructura en vetas con unas regiones de radiación más débil y otras de radiación más intensa, con diferencia de temperatura de una 30 millonésimas de grados centígrados;
• ahora bien: sobre el fondo se pueden estampar otras oscilaciones mucho más fuertes mediante radiaciones perturbadoras terrestres, interplanetarias y galácticas, así como mediante el movimiento propio de la Tierra contra el campo de radiación;
• no obstante, los científicos creen poder compensar los efectos de estas superposiciones con esfuerzo y arte de extrapolación. Las “vetas” que quedan las interpretan como imagen de la estructuración del cosmos primitivo, cuando surgió la radiación de fondo teniendo una temperatura de unos 3.500 grados centígrados;
• ahora se trata, pues, de comprender como en un Universo que en aquel tiempo solo presentaba diferencias de temperaturas de pocas centésimas de grados pudieron surgir todas las estructuras que hoy se pueden observar, pues el cosmos actual resulta estar estructurado jerárquicamente, desde la más pequeña hasta la más larga escala de longitudes;
• y ni siquiera en la más grande escala parece homogénea la distribución de material.

La prueba más convincente de este fenómeno sorprendente la han suministrado Will Saunders y sus colaboradores del Departamento de Astrofísica de la Universidad de Oxford en Gran Bretaña en un artículo publicado en Nature del que lo relevante es:
• presentaron su material de observación procedente de una exploración de todo el cielo de la distribución cósmica de las galaxias hasta distancias de 500 millones de años luz, que en su mayor parte sobre la base de su fuerza luminosa se identificaron con el satélite IRAS en la gama de radiación infrarroja;
• como parece resultar del análisis de dichos resultados, en el espectro de tales espacios amplios existe mucha más estructuración material que lo que habían predicho todos los modelos estándar; c) así después de las mediciones de COBE se puede esperar al menos que se podrá ver el comienzo de la formación de estructuras en el cosmos, pues el fondo material, a partir del cual se ha desarrollado este mundo, no resulta ser tan perfectamente homogéneo y de temperatura tan uniforme como parecía ser hasta hace poco tiempo.


En mayo de 1993, los teóricos físicos, Gerhad Borner y Thomas Buchert, del Instituto Max Planck de astrofísica, en Carching señalan:
• que la realidad del Universo exige despedirse de la línea tradicional de teorías homogéneas sobre la aparición del mundo, buscando nuevas formas para describir Universos no homogéneos;
• si bien también se podría pensar, en el marco de cálculos teóricos, que el Universo hubiera desarrollado - siguiendo el modelo de Cosmologías homogéneas - esas estructuras una vez que ya existieran en principio en forma de oscilaciones de la densidad, la radiación de fondo como imagen del cosmos primitivo no permite reconocer dichas irregularidades, al menos visto desde la Tierra.

EL EXPERIMENTO DE TENERIFE
En febrero de 1994, Rafael Rebollo coordinador del “Experimento Tenerife” sobre el fondo de microondas, presentó el resultado de 10 años de estudio del Instituto de Astrofísica de Canarias ,junto con los equipos de la Universidad de Manchester, y del Observatorio de la Universidad de Cambridge por medio del cual se ha detectado la radiación que corresponde a la luz emitida unos 300 mil años después del “Big Bang”. La presentación en el Museo de la Ciencia y el Cosmos de Tenerife arroja estos resultados:
• Es “imposible” realizar un mapa completo de la situación del cosmos en la época del Big Bang, ocurrido posiblemente hace unos 10 a 20 mil millones de años por lo que la teoría de la “Gran Explosión” es valida mientras las investigaciones no la contradigan;
• El “Experimento Tenerife sobre el fondo Cósmico de microondas”, no prueba la teoría del Big Bang, aunque sí la refuerza, y tampoco sirve para concluir si el Universo es cerrado o si se expande de forma indefinida;
• Las medidas de temperatura acumuladas han permitido identificar y localizar las primeras estructuras reales en el fondo de radiación de microondas, la más brillante de las cuales está en la dirección de la constelación “Perros Cazadores”;
• La amplitud de las variaciones detectadas con este experimento coincide con el análisis estadístico del primer año de datos del satélite COBE (Explorador del Fondo Cósmico), anunciado en 1992, y han permitido localizar estructuras reales que no pudieron lograrse con el COBE por su falta de sensibilidad al cubrir todo el cielo.

Aparte del experimento TENERIFE la NASA ha continuado haciendo detecciones por varios métodos instrumentales, entre ellos: FIRAS; GSFC; MSAN; TOP HAT; que combinan facilidades satelitales y exploraciones con globos de gran altitud. En términos generales hasta 1996 los hallazgos iniciales de COBE han sido confirmados con mediciones más y más sensibles; sin embargo, las efectuadas con el método MSAN que busca la anisotropía en mediana escala ha resultado con sorpresas, al aparecer estructuras de radiación puntuales que no han podido ser descifradas aún; lo que hace que la NASA afirme - oficialmente - que “el estudio de las anisotropías de la radiación cósmica infrarroja de fondo (CMBR) se encuentra aún en su infancia; pero este es el camino seguro para descubrir el misterioso origen de la alta estructuración del Universo”. Esta cautelosa afirmación contrasta, notablemente, con el anuncio original de 1994

Para cada instante de la evolución del Universo hay un radio que determina el horizonte visible. Si se inicia el conteo a partir de T = 0, el radio es cero, y el horizonte visible es también cero; 1 segundo después el radio es de 300.000 Km, que corresponde a la velocidad de la luz y esa cantidad es la que ha viajado en el tiempo; por tanto el radio determina el horizonte y este es entonces una cantidad directamente proporcional a la edad del Universo que se está observando; así al expanderse el espacio el horizonte se abre en el tiempo. El problema del horizonte ha obligado a refinar la tecnología de medición.

El satélite Cobe captó las diferencias de temperatura (o diferencias en la densidad de la materia) con una precisión de 1 en 100.000 partes, con un medidor que tiene la capacidad de capturar fotones en una distancia de 7 grados, lo que significa que solo puede captar estructuras mayores que la Luna ampliada 14 veces. Para observar este problema se han hecho otros instrumentos que miden estructuras menores y, a finales de 1996 estará en operación el llamado “TOPHAT” que permitirá medir escalas angulares de 0.5 grados, lo que capta estructuras realmente pequeñas (menores de 1 grado) y por lo tanto servirá para completar la teoría de lo que ocurrió en la era pre-inflacionaria; así como poder resolver el problema de dos fuentes de radiación captados con una tecnología intermedia (MSAN o Medidas de Escala Media de Anisotropía, colocado en un globo de gran altitud) no resueltos aún por ser apenas puntos de luz; que de confirmarse como señales reales de CMBR, obligaría a cambiar la teoría que sustenta este contexto y con ella la que explica la formación de estructuras en todo el Universo.

¿NUEVA COMPROBACIÓN DEL BIG BANG?

La teoría del Big Bang establece que la materia y la radiación (lo mismo que el tiempo) fueron creados en el pasado, cuando T =) (nos 15 mil millones tras). La radiación fue detectada (como radiación remanente de fondo en 1964 - 65) y fue medida (hasta en variaciones muy exactas en 1992). Pero la materia permanecía postulada en teoría y no observada.

Sin embargo ni el hidrógeno ni el helio primordiales que se forman durante esa época habían sido detectados. En 1975 el grupo de Davidson inició la detección de ambos elementos químicos, que culminó con su hallazgo mediante el uso del TUH (Telescopio Ultravioleta Hopkins), a bordo del transbordador Endeavor, durante la misión de 17 días efectuada en marzo de 1995.

El análisis de un quasar por el telescopio permitió observar que parte de su brillante luz era absorbida o filtrada por alguna sustancia existente en el espacio intergaláctico; y al examinar con precisión el material filtrante resultó ser helio con un electrón (en vez de los dos electrones que posee el helio terrestre).

La anomalía electrónica del helio - que se presume es el elemento producido en el Big Bang, que no puede detectarse en la Tierra por la acción absorbente de la atmósfera, se debe a la acción de la luz del quasar, ya que la teoría original postula que el hidrógeno y el helio primordiales carecían de electrones en su formación.

Con base en la cantidad de helio detectado, el equipo hizo los cálculos restantes habiendo llegado a la conclusión que las cantidades proyectadas son coincidentes con las que la teoría del Big Bang ha estimado para ambas sustancias gaseosas, lo que, a su juicio, convierte el hallazgo en el encuentro del “eslabón perdido” entre el origen del Universo y lo que vemos hoy.”


¿EN DUDA LA EDAD DEL UNIVERSO?

Una vez reparado parcialmente el telescopio espacial Hubble (HST, en inglés), las primeras revelaciones resultantes de la medición del parámetro de expansión (Ho) de Hubble, causan gran polémica porque ponen en duda la edad generalmente aceptada (mediante una convención entre astrónomos) de 15 mil millones de años.


En cosmología el problema observacional más relevante es conocer la rata de expansión intergaláctica, ya que de ella depende la comprobación o la refutación de los modelos teóricos que tratan del Universo, así como de las características de la evolución de las galaxias (tamaño, masa, luminosidad); y las fechas probables de aparición de galaxias y otras grandes estructuras (“El Gran Atractor”; “La Gran Muralla”) y las épocas probables de la aparición de los primeros elementos químicos.

La medición de las estrellas cefeidas variables, que sirven como “candelas” para conocer mediante su luminosidad, la edad, sirve de patrón para deducir - a su vez - la edad de las estructuras que las contienen.

En diciembre de 1994 HST efectuó la medición de las distancias a los cúmulos galácticos conocidos como M96 y M100 y los datos obtenidos permiten suponer que el Universo tendría tan solo entre 8 mil a 12 mil millones de años, lo que trae como consecuencia:

1) La Teoría del Big Bang es errónea, o
2) Es necesario recalcular la teoría de evolución estelar, así como otros parámetros, entre ellos la evolución galáactica, la presencia de material intergaláctico e interestelar, puesto que la incongruencia en la medición arroja como resultado que las estrellas son más viejas que el Universo mismo.

Sin embargo, dado que la medición es tan solo de dos cúmulos galácticos, será necesario esperar a otras mediciones por una parte; así como a la revisión de la teoría de la formación de galaxias y a la evolución de las estrellas. Para los partidarios de la teoría del Big Bang, ésta es sólida pues hasta la fecha ha logrado respaldo empírico mediante: a) la demostración de la expansión del Universo (1929); b) la detección de la radiación cósmica de fondo (1964 - 65); c) la comprobación de la radiación cósmica de fondo mediante COBE (1992); d) la detección de helio primordial (1994).

Para los detractores de la teoría, esta tiene tantos defectos que es necesario sustituirla.

Con un criterio objetivo, en inicios de 1996 la revista Sky and Telescope publica el artículo “¿Está la Cosmología en Crisis?”, debida al astrónomo Joshua Roth, Editor Técnico de la Revista (junto al escritor científico Joel R. Primack) que presenta, de manera novedosa los tres datos básicos sobre los que descansa la cosmología actual: El Coeficiente de Expansión, la Densidad de la Materia, La Constante Cosmológica y utilizando la idea del astrónomo Chris Impey de la Universidad de Arizona permite reordenar las piezas del rompecabezas en lo que a edad se refiere.

De la exposición se deriva como consecuencia que la época actual permite que la tecnología ponga - más que la teoría - las cosas en sus lugares, por lo que la cosmología teórica terminará siendo aquella parcela del conocimiento humano que quede en pie, después de lo que digan las observaciones y mediciones empíricas. De ello se deduce que la cosmología está cercana a ser un campo de “síntesis fundamental, que servirá de fundamento intelectual para todo el vasto campo de la astronomía”.

El problema de la determinación de la edad del Universo se topa, necesariamente con el postulado einsteniano de la velocidad de la luz.

Uno de los corolarios más importantes de las leyes del electromagnetismo, resumidas por James C. Maxwell en sus ecuaciones, es la predicción de la existencia de ondas electromagnéticas que se propagan con velocidad constante en el vacío. Esta velocidad, (c), no depende ni de la intensidad, ni de la frecuencia de las ondas; tampoco, de su longitud de onda, que es la relación existente entre la velocidad y la frecuencia.

La consideración como constante universal le fue atribuida a la velocidad de la luz por la teoría de la Relatividad Especial de Einstein, que postuló en 1905, no sólo la independencia de “c” respecto de la frecuencia de la onda electromagnética, sino también respecto del estado de movimiento del observador inercial aquel para el cual todas las fuerzas tienen una causa física independiente del mismo). En virtud de dicha independencia, dos observadores inerciales, en movimiento de velocidad constante uno respecto del otro, siempre medirán la misma velocidad de propagación de la luz aunque, debido al efecto Doppler, percibieran la luz con color diferente.

La teoría agrega que toda partícula dotada de masa se mueve con una velocidad que es siempre inferior a c; ahora bien, todo transporte de energía y toda transmisión de información utilizan como vehículo partículas materiales u ondas electromagnéticas; por tanto, se concluye con Einstein, ninguna velocidad asociada al transporte de energía o a la transmisión de información puede superar la velocidad de la luz en el vacío. ( Luego la Teoría General de la Relatividad, en 1915, generalizó estos resultados).

En virtud de ambas leyes, en física, la noción de causalidad viene condicionada por la idea de velocidad máxima, insuperable, que caracteriza a la propagación de la luz en el vacío. Pero: ¿Qué ocurriría si hubiera velocidades de propagación superiores a la de la luz? Se producirían situaciones muy curiosas. La más espectacular es, sin duda, la posibilidad de violar la ley de la causalidad, dependiente como hemos visto de "c". Estaríamos ante lo que se conoce como la "Paradoja del Abuelo". Si hubieran causas (y por tanto efectos) que se propagasen a velocidad superior a c en ciertos sistemas de referencia, podrían aquellas propagarse hacia atrás en el tiempo para ciertos observadores inerciales. Semejante situación permitiría que, por ejemplo: Usted convenciese a su abuelo, enviándole un mensaje que recibiría en su juventud, de las ventajas del celibato y, por tanto, podría, con esas ideas, impedir que Usted naciera (la paradoja es palmaria: impediría su existencia como nieto por Usted mismo).

Ahora bien, pese a las paradojas de ese tipo, la física reconoce la existencia de muchas velocidades que superan la de la luz.

Primer ejemplo: Consideremos los puntos más lejanos del Universo que podamos, en principio, observar. Si el Universo fuese estático, como se creía a principios de siglo, esta distancia máxima de observación sería simplemente "ct", (donde "t" representa la edad del Universo, y esa edad corresponde a la distancia que ha recorrido la luz emitida en los primeros instantes del Universo).

Pero el Universo no es estático, sino que se halla en expansión desde los primeros instantes de su existencia. Por causa de esa expansión, los puntos más lejanos que podemos observar no están a una distancia ct, sino entre 2 y 3 veces dicha lejanía; en efecto, a la distancia recorrida por la luz hay que añadir la dilatación del propio espacio debida a la expansión. A esta distancia máxima de observabilidad la llamamos horizonte de partículas que se alejan a una velocidad entre 2c y 3c, una velocidad, por consiguiente, muy superior a la de la luz. No se trata, pues, de la clásica velocidad de un punto medida con los patrones de distancia y tiempo vigentes en un instante determinado, sino que incluye la velocidad con la que el propio patrón de distancia crece con respecto al vigente en instantes anteriores.

Ahora bien, ¿cómo podemos observar objetos que están a una distancia superior a ct? La respuesta es sencilla: la señal que observamos, y que proporciona toda la información sobre el objeto, sólo ha recorrido una distancia "ct", pero el objeto emisor de esa luz se halla ahora a una distancia superior a "ct".

La respuesta no contradice la teoría de la relatividad, ni la propiedad de c de ser la velocidad máxima con que se propagan señales o energía.

Segundo ejemplo: Pasemos de la relatividad a la otra teoría fundamental de la física del siglo XX, la mecánica cuántica. Para entender aquí la causalidad, recurriremos a otro ejemplo: el montaje experimental imaginario que suele idearse para presentar la paradoja de Einstein, Podolski y Rosen. (Así se llama la conclusión a la que llegaron en 1935 Albert Einstein, Boris Podolsky y Nathan Rosen y según la cual la mecánica cuántica es una teoría incompleta.

El bastidor experimental imaginario constará de tres componentes esenciales: una fuente emisora y dos polarímetros, o aparatos medidores de la actividad óptica: a) Sea un átomo que emite dos fotones en sentidos opuestos; admitamos que, al medir las polarizaciones circulares de cada uno de ellos, siempre sean también opuestas; b) Cuando el fotón que llega al polarímetro 1 resulta, al medir, ser dextrógiro, el otro es levógiro, y viceversa; además, ambos resultados son equiprobables. La paradoja cuántica estriba en que los dos fotones, (aunque estén espacialmente separados) no pueden describirse cada uno por su lado hasta que una medición realizada sobre uno de ellos no fuerce un hiato entre los dos.

Pero las cosas no cambian si sustituimos polarizaciones circulares por lineales. Así: a) el fotón que entre en el polarímetro 2 mostrará ahora una polarización lineal bien definida al medir el observador la polarización lineal del fotón que entra en el polarímetro 1; b) ambas polarizaciones lineales serán, además, opuestas. Si el fotón del polarímetro 1 presenta polarización hacia arriba, el otro la presentará hacia abajo, y viceversa.

Habida cuenta de que un fotón no puede estar simultáneamente caracterizado por ambas polarizaciones, circular y lineal, la reflexión sobre lo anterior nos hace descubrir la paradoja escondida en el experimento imaginario: puesto que el fotón que entra en el polarímetro 2 unas veces tiene polarización circular y otras lineal cuando solo se ha medido la polarización del otro fotón y los dos entran en los polarímetros en el mismo instante, no puede haber relación causal entre los resultados de las dos mediciones. ¿Cómo puede la polarización de un fotón, circular o lineal, quedar determinada instantáneamente por el tipo de polarímetro con el que efectuamos la medida sobre el otro fotón?

Para no desviarnos del tema, aceptemos que la paradoja no obliga a modificar la mecánica cuántica. Será preciso entonces cambiar nuestra forma común de entender la localidad y admitir la no separabilidad de las descripciones de uno y otro fotón. Pero se nos plantea un problema más espinoso, relativo a la información obtenida del sistema: ¿Permite transmitir instantáneamente información la determinación instantánea de la clase de polarización de un fotón por el tipo de polarímetro que utilizamos para medir la clase de polarización del otro? La modificación del estado es instantánea, pero esto no implica una propagación de una señal a velocidad infinita. Por otro lado, la velocidad de verificación de la correlación, enviando una señal, es "c".

Tercer Ejemplo: Hasta ahora hemos analizado ejemplos en los que, si bien aparecen velocidades superiores a la de la luz, no corresponden a propagación de partículas o luz. Demos ese paso y ocupémonos de situaciones en las que se analice la propagación de partículas u ondas electromagnéticas en un medio material, este es el caso de la radiación de la denominada "Radiación de Cherenkov".

Se produce radiación de Cherenkov cuando una partícula, -normalmente un electrón- se desplaza en un medio material transparente a una velocidad superior a la de la luz en dicho medio. En estas circunstancias, el electrón transforma una pequeña parte de la energía que pierde, por su interacción con el medio, en radiación electromagnética confinada en un cono, de forma similar a lo que ocurre con el sonido cuando un avión vuela por encima de la velocidad del sonido (1 mach, o 1229 kilómetros por hora, en la atmósfera terrestre).

En la radiación de Cherenkov no hay contradicción con lo que afirma la teoría de la relatividad sobre la velocidad máxima de c. Lo que ocurre es que la velocidad de la luz en el medio material es inferior a la de la luz en el vacío, o, en otras palabras, el índice de refracción (cociente entre la propagación en el vacío y la primera) es mayor que uno. Así, en el vidrio el índice de refracción va de 1,5 a 1,7 cuando la frecuencia de la luz crece desde el color rojo hasta el violeta. Hay, pues, un gran margen para velocidades superiores a la de la luz en el vidrio, pero inferiores a la de la luz en el vacío.

De ello podría extraerse la conclusión de la imposibilidad de índices de refracción inferiores a la unidad, pero sería una conclusión errónea: Los rayos X, (descubiertos por Wilhelm Röntgen hace cien años, hallazgo por el que se le concedió el primer Nobel de física de la historia en 1901), tienen índice de refracción inferior a 1 y, por tanto, se propagarían en el vidrio con una velocidad ligeramente superior a la de la luz en el vacío. ¿Contradice este resultado lo que defiende la teoría de la relatividad sobre c?

COMPROBACIONES EMPÍRICAS A LA TEORÍA DEL BIG BANG

Todas las noticias que se incluyen a continuación revelan el marcadìsimo interés por desentrañar el misterio del origen y evolución del tejido - altamente estructurado - del Universo. Aunque los datos que forman esta acción no son - ni mucho menos - todos las que permiten visualizar el esfuerzo de la ciencia, al menos son bastante representativas de lo que se logra durante los años 92 a 96, gracias a la sofisticación tecnológica, en el campo que nos interesa.

• 03/92, Divulgada la información de que el Satélite Alemán ROSAT, que capta las emisiones de rayos X, hasta ahora, ha detectado y confirmado la existencia de 60 mil fuentes emisoras de rayos X, de las cuales la mitad son quásares.
• 07/92, Anunciada la existencia de un agujero negro con una masa equivalente a mil millones de soles en el centro de la Galaxia NGC 3115, situada a 20 millones de años luz de la Tierra. Este es el segundo descubrimiento de este tipo ya que el primero descubierto por el Telescopio Espacial Hubble fue anunciado apenas tres meses antes. Estos hallazgos confirman las predicciones en su teoría general de la Relatividad
• 10/92, Descubierto un “probable” anillo de Einstein predicho en la Teoría de la Relatividad General. El fenómeno - en realidad un “espejismo cósmico” - sería el resultado de la superposición luminosa de dos estrellas situadas a diferente distancia.
• 11/92, Descubierta por primera vez galaxia en proceso de formación. Esta se encuentra situada en la Constelación Lince a más de 10.000 años luz de distancia de la Tierra. Este objeto designado como B2 09 02 + 34 fue descubierta en realidad en 1988, pero entonces - por problemas de tecnología de la cámara de rayos infrarrojos - se creyó que la galaxia contenía estrellas que eran más antiguas que el propio Universo. Las nuevas observaciones aparentemente rectifican el error y convierte al objeto en la primera protogalaxia observada.
• 12/92, La existencia de chorros de gases fríos lanzados a cientos de kilómetros por hora pertenecientes a estrellas nacientes. Estos chorros denominados Prolydos (Discos de Proto estrellas), dan origen a planetas alrededor de las estrellas que los lanzan. Han sido observados en la Nebulosa de Orión, así como alrededor de las estrellas Alpha Piscis Austnini, Epsilon Eridani y Beta Pictoris.
• 01/93, Descubiertos gigantescos arcos luminosos denominados Abell 370 y C 12242-02 en el centro de cúmulos de galaxias situadas en la Constelación del Cisne. Se estima que estos efectos de carácter luminoso son producto del fenómeno de lentes gravitacionales predichos en la teoría de la Relatividad General de Einstein
• 02/93, Descubierta la primera protoestrella, bautizada VLA1623, en proceso de formación en la Constelación del Serpentario, en una Nebulosa Interestelar llamada Rho Ophiuco. Se calcula que en 100.000 años el objeto será una estrella.
• 03/93, Descubiertos racimos de viejas Galaxias con trazados elípticos, espirales, distorsionadas o irregulares; además observadas colisiones entre Galaxias que se entremezclan entre sí o se fusionan en una sola. Con base en estos descubrimientos se teoriza que las Galaxias cambian por efecto de fusión, estallido o por desaparición.
• 06/93, Iniciada la fabricación de un globo - sonda de 42 mtrs. de longitud, 24 kilos de peso, capaz de soportar variaciones de temperatura del orden de + 130 grados centígrados que será enviado a Marte en una misión conjunta Ruso-Francesa en 1996 y se espera inflar con 5500 metros cúbicos de helio obtenido del espacio para que luego descienda en una órbita estacionaria de tres kilómetros del suelo marciano, cargado con instrumentos de medición de entre 3 y 4 toneladas.
• 06/93, A disposición de la comunidad astronómica el primer resultado del trabajo de una computadora tridimensional que hizo la “cartografía” del Universo y encontró una Concentración Galáctica inusual (forma alargada de 500 millones años luz de diámetro), que desafía todo el conocimiento de lo que se creía era una “distribución uniforme” en el espacio.
• 06/93, Iniciadas innovaciones al grupo de telescopios Newton manejados por el Real Observatorio de Greenwich en las Palmas, Canarias. Estas consisten en: a) Eliminar los efectos distorsionantes de la atmósfera terrestre que hace borrosos los objetos y curva la luz proveniente de rayos de diferente longitud de onda, lo que provoca que las imágenes parezcan “arcoiris”; b) Aumentar el campo visual para permitir compensar completamente las aberraciones que introduce el espejo de 4.2 m de diámetro; c) Colocar un espectrógrafo capaz de analizar - a la vez - la luz proveniente de 150 estrellas o de galaxias diferentes; d) Colocar detectores supersensibles (Dispositivos de Acople de Carga a Nivel Cuántico) capaces de localizar un solo fotón de luz procedente de un objeto espacial, permitiendo penetrar a lo más profundo del inicio del Universo.
• 06/93, Encontrada la heliopausa (frontera entre el Sistema Solar y el Espacio Interestelar) mediante la detección de interferencias en las ondas de radio de baja frecuencia de las naves espaciales Voyager -I y II. Esta interferencia es producida por la interacción de una nube de gas electrónicamente cargado que parte del Sol, se expande y al llegar a la heliopausa se encuentra con el gas frío interestelar, causando extrañas emisiones de radio.
• 07/93, Descubiertos vapor de agua y oxigeno en el medio interestelar. El vapor de agua se detectó en el espectro de una galaxia muy luminosa llamada IRAS10214 a 2.700 millones de años luz de la Tierra. El oxígeno molecular se detectó en el espectro de una nube interestelar de nuestra Galaxia (Lynds134N), cerca de la constelación de Escorpión.
• 09/93, Divulgado que la NASA está desarrollando una nueva teoría sobre la formación de galaxias con base en nuevos descubrimientos: a) La evolución química galáctica no se producía - como se pensaba - sobre la base de polvo de hidrocarburos que se creía fluían libremente entre las nubes galácticas y sus enterespacios para formar estrellas, planetas, cometas en períodos cortos, sino que en vez de polvo lo que existe son nubes de microdiamantes; b) La evolución de las galaxias, que vivían cambiando de forma con el paso del tiempo debe desecharse; porque en realidad lo que sucede es que por choque entre galaxias (nunca se encuentran solas, sino en grupos o enjambres) éstas se fusionan entre sí, dando origen a otras de diferente forma, por ejemplo, una elíptica sería el resultado del entrecruce de dos galaxias espirales; una elíptica gigante sería el resultado de la fusión de dos elípticas; o está el caso de Andrómeda con dos núcleos: uno el propio, el otro el núcleo de una galaxia “fagocitada” (o tragada) por la primera.
• 12/93, Reparado parcialmente el Telescopio Espacial Hubble, lanzado en 1990, con un defecto congénito que deformaba las imágenes captadas. A pesar de su dificultad inicial y luego de su reparación el HST se ha convertido en un artefacto que ha revolucionado los conocimientos acerca del Universo.
• 02/94, Publicado un estudio que tomó 10 años para determinar si, efectivamente las radiaciones cósmicas de microondas que en 1964 Arno Penzias y Robert Wilson interpretaron como el “eco del Big Bang” y los hallazgos de COBE de 1992 “prueba validadora del “Big Bang”. A juicio de un grupo de científicos españoles, británicos y norteamericanos, ha permitido “identificar y localizar las primeras estructuras reales en el fondo de radiación de microondas, la más brillante de las cuales está en dirección de la Constelación “Perros Cazadores”. A criterio de los investigadores “si bien es cierto la investigación respalda los hallazgos de COBE, el experimento no prueba la teoría del Big Bang”. También señalaron que: “es imposible realizar un mapa completo de la situación del Cosmos en la época del Big Bang, pero que la teoría es válida, mientras las investigaciones no la contradigan”.
• 03/94, La Vía Láctea y miles de otras galaxias se desplazan hacia un punto de la Constelación Virgo a 2.4 millones de Km. por hora, en dirección a la que sigue el resto del Universo.
• 03/94, Iniciado un esfuerzo multinacional para la construcción de un acelerador de partículas de muy alta energía, que permita superar la actual barrera entre choque de partículas y detección de materia-antimateria. Se trata del LHC construido por el Centro Europeo de Investigaciones Nucleares en el que colaborarán los norteamericanos quienes abandonaran - por razones políticas y financieras - la construcción de su sueño un supercolisionador no aprobado por el Congreso.
• 04/94, Demostrada la existencia experimental de un quark máximo, el último eslabón de un grupo de partículas subatómicas, consideradas elementos básicos de la materia este tipo de quark existió realmente solo por breves instantes al producirse el Big Bang. El hallazgo - que debe confirmarse - cierra la teoría de los quarks del Físico Murray Gell Man en la década de los setenta.
• 06/94, Detectado un aminoácido (glicina) que interviene en la formación de muchos tipos de proteínas, en las nubes de gas que rodean una región de activa formación estelar llamada SagitarioB2, a 23.000 años luz de distancia de la Tierra en la Vía Láctea. (La detección no prueba - necesariamente - la existencia de vida en otros sitios).
• 06/94, Descubiertos tres planetas en la Constelación Virgo, alrededor de una estrella tipo neutrón (resto de una explosión de supernova ocurridas hace 4000 millones de años), que tiene 20 Km. de diámetro y solo emite ondas de radio que bombardean con rayos X y Gamma los tres planetas (dos grandes gravitan a 53 y 70 millones de Km., en 6 días y 8 días respectivamente; el tercero - más pequeño y cercano a la estrella - completa su órbita en 25 días).
• 06/94, Descubiertos 56 discos de polvo protoplanetarios alrededor de 56 estrellas ubicadas en la Constelación de Orión. Los discos de 85 millones de Km. cuadrados (casi 8 veces el diámetro del Sistema Solar) formados entre 300.000 y 750.000 años, se condensan luego, en varios millones de años y originan planetas.
• 06/94, Descubierta agua en la Galaxia Markarian 1, a 200 millones de años luz de distancia (a la fecha solo se había detectado agua en la Galaxia Local y en planetas cercanos a la Tierra).
• 07/94, Instalado un robot (Espectrómetro Automático de Objetivos Múltiples), manejado por una computadora, capaz de captar hasta 100 imágenes celestiales a la vez, mediante 100 cables de fibra óptica que pueden programarse para trabajar en distancias de 10 micrones (ocho veces más pequeñas que un cabello humano).
• 09/94, Observada por primera vez en nuestra Galaxia, materia a un 92% de la velocidad de la luz (se trata de dos glóbulos que se distancian en sentido opuesto de un posible agujero negro o estrella neutrónica ultra densa).
• 09/94, Anunciada una nueva tecnología para reemplazar el silicio de los semiconductores de las computadoras por una película a base de arseniuro de galio. El cambio permitirá multiplicar por 10 la velocidad de procesamiento, lo que, aplicado a los nuevos dispositivos de observación constituye una revolución tecnológica igual a la que significó pasar del tubo de cátodo-ánodo a los semiconductores de estado sólido, hasta ahora a base de silicio.
• 09/94, Identificada una masiva “bola de fuego” (compuesta de nubes de protones y electrones, producto del recalentamiento de varios elementos livianos y pesados - calculada en 10.000 millones de Km.) que se dirige hacia la Tierra a velocidad cercana a la luz. El objeto se encuentra a 11.000 años luz de distancia y es el resultado de la colisión entre dos estrellas o de una estrella y un agujero negro.
• 09/94, Iniciado un programa conjunto NASA/INTERSPUTNIK para lanzar una estación orbital internacional, tal como fuera planteado por el astrofísico Gerard K’O Neill de la Universidad de Princeton en la década de los 70. La plataforma (verdadera colonia espacial prototipo) serviría de base de llegada, aprovisionamiento, vida y lanzamiento de viajes espaciales tripulados para las décadas próximas.
• 10/94, Descubrimiento de una masa de 30 galaxias en los límites del cosmos (10 mil millones de años luz) con un tamaño de 20 millones de años luz. (Este descubrimiento había sido anticipado - sin confirmar - por científicos que operan el Telescopio Espacial Hubble, con problemas de enfoque serios, en julio de 1992).
• 10/94, Detectado óxido de carbono en una nueva masa gigantesca de gas molecular en un astro llamado “Trébol de cuatro estrellas”, situado a 13.000 millones de años luz de la Tierra, lo que prueba que gran parte de los integrantes de la materia estelar existía poco después del nacimiento del Universo.
• 10/94, Descubierto un nuevo tipo de estrellas sumamente viejas en los bordes de las galaxias del Cúmulo Local. Según la teoría las estrellas viejas se encuentran en los centros de galaxia y en sus bordes solo entre las estrellas nuevas. Este hallazgo de no tener otra explicación, revoluciona la teoría de formación de estrellas e incide en la edad del Universo.
• 10/94, Divulgada la nueva experimentación destinada a combinar la computación y la biología. Se trata de que, por más que avance el desarrollo de “Hardware” y “Software”, la computación tiene un límite, ya que está concebida sobre la base de la linearidad (mecánica). Para dar un salto verdaderamente revolucionario la computación deberá ingresar al campo de la no-linearidad, esto es al contexto en que se desarrollan los procesos vitales. Esto lleva a crear un empate con el “control de procesos” en que se desarrollan los sistemas neuronales y cerebrales, lo que permitirá obtener sistemas “neurobioticos”, esenciales para la exploración espacial, ahora limitada por los problemas de grandes distancias que superan - en demasía - la cantidad de vida de tripulaciones humanas.
• 11/94, Iniciada la construcción del mayor telescopio milimétrico del planeta en un proyecto conjunto México-EUA. Este será instalado en una zona árida montañosa del centro de México. La técnica milimétrica permite el estudio de la formación de las estrellas, galaxias, sistemas planetarios y medio intelestelar.
• 11/94, Descubiertos siete nuevos satélites en torno a Saturno después del examen minucioso de miles de fotografías enviadas por Voyager II que ya había descubierto 20 satélites y un anillo alrededor del planeta.
• 11/94, Iniciada la continuación del LIGO (Observatorio Interferometrico de bases para detección de ondas gravitacionales). El objetivo es detectar las “masas gravitacionales” predichas por Einstein (oscilaciones en el espacio-tiempo, debidas a violentos eventos en el Universo)
• 12/94, Afirman que de los datos observacionales actuales se desprende que el Universo tiene tan solo entre 8 mil y 12 mil millones de años de edad. Esto desata una polémica entre los cosmólogos. Algunos dicen que es el fin de la teoría del Big Bang, otros prefieren esperar a afinar las observaciones, dado que hay estrellas en nuestra galaxia con una edad mayor (14 mil millones de años).
• 12/94, Detección de dos tipos de radiaciones solares: una rápida emitida desde las regiones polares; otra lenta proveniente de la zona ecuatorial.
• 01/95, Encontrada evidencia de que el Universo es abierto y en proceso de desaceleración, según lo revela un estudio efectuado con el telescopio KECK (con un espectrógrafo de muy alta revolución) situado en Hawai: el estudio compara las galaxias evolucionadas y las no evolucionadas, y bajo la regla que “a mayor tiempo que el Universo tarde en un estado determinado, mayor cantidad de Galaxias que pueden derivarse en la misma intensidad, distancia y corrimiento al rojo”. El resultado del estudio muestra que el Universo se desacelera lentamente y que los cambios en la estructura galáctica o bien el nacimiento de galaxias en los últimos billones de años son poco significativos.
• 01/95, Reveladas discrepancias entre la edad del Universo y estrellas en Galaxia. Por ejemplo: la edad de las estrellas en el cúmulo M 900 arroja una edad de 8 mil millones de años como máximo, y las estrellas del cúmulo M 96 aumenta la edad a 9.5 mil millones de años. El parámetro de Hubble para esta ultima medición es de 40 = 69 + 8 billones de años para el inicio de la expansión, lo que plantea: a) que el Universo es más joven y que tiene un proceso de rapidìsima expansión inicial (tipo inflación), o b) que es necesario recalcular la teoría de la evolución estelar.
• 01/95, Demostrada la existencia de un hueco negro en el centro de la Vía Láctea en un diámetro de 0.42 años luz y una masa equivalente a 36 millones de soles.
• 02/95, Reiniciada la búsqueda de señales de parte de seres extraterrestres. El Proyecto Phoenix (Ave Fenix) ahora en el Observatorio Parker de Australia, resucita los trabajos preliminares iniciados con CETI, luego por SETI y SERENDIP I, II, III; todos los cuales fueron abandonados o quedaron reducidos a muy escasas posibilidades por razones financieras. El nuevo proyecto retoma la idea lanzada por el astrónomo norteamericano Frank Drake que él mismo inició en 1956. La conversación, por ejemplo, con seres situados en un planeta a 25 años luz de distancia, ocuparía entre pregunta y respuesta medio siglo; lo que pone en evidencia tanto la audacia del proyecto como sus dificultades intrínsecas, sin contar las de captar señales falsas provenientes de satélites y hasta por hornos de microondas
• 02/95, Descubiertas 12 estrellas en proceso de formación en uno de los “Glóbulos de Book”, por nociones oscuras de gas y polvo estelar.
• 03/95, Divulgado que, desde el transbordador espacial “Endeavour” se orientó el telescopio espacial Astro 2 para lograr la confirmación de la existencia de un hueco negro en M 87, una galaxia elíptica de la Constelación de la Virgen; y también se utilizó el telescopio ultravioleta HUT para observar los gases alrededor del agujero negro.
• 03/95, Divulgada la existencia de estrellas (con alto contenido de carbón) anteriores a la formación de estructuras galácticas, mediante el uso del espectógrafo de alta resolución del telescopio Keck, en Hawai. El descubrimiento (aunque el hallazgo debe confirmarse) plantea dudas acerca de si tales estrellas forman parte de una evolución aislada abortada (como sostiene una teoría), o bien si el carbón detectado pertenece a otras estructuras, como es el caso de nebulosas denominadas Hyman-Alpha, que contienen en su interior galaxias pobres en contenido de varios metales, a la vez que galaxias ricas en tales contenidos.
• 03/95, Descartada la existencia de corrimientos al rojo anómalos atribuidos a causas desconocidas (y diferentes al esperado corrimiento de tipo “cosmológico”, esto es, asociado a la expansión original. El estudio fue efectuado en el Observatorio Europeo del Sur, por astrofísicos brasileños, quienes denotaron que el efecto es debido a la acción de lentes gravitacionales.
• 04/95, Publicado descubrimiento de neutrinos con masa, lo que de confirmarse permite sustentar fuertemente la idea de la masa oscura faltante. El anuncio cambia la idea de que los neutrinos carecen de masa y más bien permite reconciliar el problema que plantean las variaciones de temperatura descubiertas por COBE, y sustentar mejor la teoría de la inflación inicial del Universo que requiere de la presencia de partículas rápidas “calientes” (neutrinos con masa) acompañando la materia “fría” oscura.
• 06/95, Confirmada la existencia de “chimeneas galácticas” en la Vía Láctea (estructuras reportadas por primera vez en 1993). Se trata de grandes burbujas y superestructuras tipo “concha marina”, que en conjunto parecen verdaderas chimeneas cuya existencia se desconocía, al igual que su origen. Estas estructuras detectadas en la emisión de hidrógeno en la banda de 21 cm. consisten en alargadas cónicas estructuras que se inician debajo de los planos galácticos, y se extienden hasta distancia de cientos o miles de años luz, hasta alcanzar los halos galácticos. Se ha teorizado que su función es la de reciclamiento de material galáctico entre su centro y el halo. Se ha sugerido que una estructura similar envolvería nuestro Sistema Solar.
• 06/95, Surgen discrepancias serias acerca de la verdadera naturaleza y ubicación de los quásares que la mayoría de astrónomos sitúa en lugares distantes. El estudio efectuado en el Observatorio Hitt Peak, para complementar hallazgos del satélite ROSAT, demuestran que hay quasares de altísimo corrimiento al rojo ligados - gravitacionalmente a galaxias de bajo corrimiento al rojo (En este caso la Galaxia Local M106.). De no descartase efectos debidos a lentes gravitacionales el hallazgo demuele mucha de la cosmología actual.
• 06/95, Encontrados indicios de la existencia de gas primordial (Helio) que formó las galaxias tras la explosión del Big Bang. Este se detectó en el medio intergaláctico por medio del telescopio ultravioleta Hopkins (HUT), a bordo del transbordador Endeavor durante su misión de 17 días en el mes de marzo 95. El helio detectado posee un sólo electrón y no dos como la mayor parte del gas que se encuentra en la Tierra. Sin embargo, el helio primordial (al igual que el hidrógeno primordial) carecían de electrones. El helio fue observado porque obscurecía parcialmente la luz de un quasar.
• 06/95, Propuesta de un Universo plano, en vez de un Universo curvo y eterno, en vez de finito, efectuado por un grupo de astrofísicos brasileños durante la celebración de un concepto Internacional de la IVA. La idea, que desarrolla una propuesta del astrónomo Alexander Fridman (1917) descarta el modelo del Big Bang y toma ese estado de máxima condensación de materia como una fase de la existencia de un Universo infinito. El planteamiento teórico es el resultado de una combinación de las teorías relativistas con las teorías de los fotones.
• 08/95, Confirmada en una escala de precisión de 19100 la predicción de la relatividad de Einstein, acerca de que la luz de una fuente al pasar por el Sol sufre una deflección de 1.75 segundos de arco. La experiencia durante 40 años se hizo durante un eclipse solar, lo que arroja una precisión de sólo 1 en 20. El experimento se hizo con la luz del quasar 3C279.
• 08/95, Reconfirmada la utilidad de los astrónomos aficionados, cuando el neozelandés William A. Bradfield capturó en su telescopio de 20 cm. de apertura, un nuevo cometa. Bradfield ha capturado solo entre 1967 y 1995 un total de _______ cometas, confirmando así la utilidad de los aficionados, entre quienes se hayan - también - famosos “cazadores” de cometas: el matrimonio estadounidense Shoemaker - Levy o el japonés Kobohashi. Históricamente se considera que la astronomía “amateur” moderna nace en 1833, con la observación de la lluvia de meteoros “Leonidas”.
• 08/95, Revalidada la antigüedad del Universo con base en estudio centrado a encontrar los errores de calculo que asignan a las estrellas antiguas más edad que el Universo mismo. El estudio asigna a las estrellas de M92, uno de los cúmulos globulares que orbitan la Vía Láctea, 15.800 millones de años de existencia (comprobado), de lo que se infiere que el Universo es más antiguo y de lo que concluyen los investigadores: “que las anteriores estimaciones de entre 8.000 y 13.000 millones de años, tienen - por fuerza - que estar equivocadas”.
• 09/95, Se anuncia la creación por primera vez en la historia de átomos de antimateria, lo que abre las puertas a la ciencia del futuro y ayudará a comprender mejor las leyes que rigen el Universo. Durante 40.000 milésimas de segundo, nueve átomos de antihidrógeno, recorrieron a una velocidad cercana a la de la luz (300.000 kilómetros por segundo) diez metros del Anillo de Baja Energía de Antiprotones (LEAR) del CERN. Un método para obtener un átomo de antihidrógeno es, en teoría, sencillo: se trata de conseguir un antiprotón y un antielectrón invirtiendo las cargas eléctricas que tienen el protón y el electrón en un átomo normal y unirlos. En la práctica, su obtención es mucho más difícil, y para conseguirlo fue necesario pasar en el interior del LEAR los antiprotones unas 3 millones de veces por segundo por un chorro de gas xenón. Sin embargo, su existencia fue muy corta, ya que la antimateria no existe en la Tierra porque es imposible que conviva con la materia y cuando ambas entran en contacto se produce la “aniquilación”, es decir, la mutua destrucción, que genera una enorme cantidad de energía.
• 09/95, Termina su vida útil el IRAS, satélite dotado de un dispositivo captador de rayos infrarrojos, que desde 1983 localizó 250 mil objetos espaciales desconocidos o poco estudiados con la tecnología usual. Lo reemplaza el ISO con una capacidad de observación entre 100 a 1000 veces mayor.
• 10/95, Divulgado el hallazgo de un anillo que forma un disco espeso de estrellas de edad intermedia en la Vía Láctea. La explicación sería que este anillo pertenecía a una galaxia pequeña que fue absorbida por la Vía Láctea hace unos 10 mil millones de años.
• 10/95, Anunciada la presencia real del primer planeta alrededor de una estrella. Se trata de un planeta gigante ( + 150 veces la masa de la Tierra) a 7 km. de distancia de la estrella Pegaso 51, las características del planeta, ponen en tela de duda las teorías de la formación de planetas. En el camino quedaron descartados - por el momento - la existencia de otros planetas; entre ellos los anuncios relativos a planetas alrededor de Barnard, Cisne, Lalande 21185, VB8B y otras estrellas enanas rojas.
• 12/95, Anunciado el lanzamiento de “Tauvex”, un telescopio espacial especializado en la captación de ondas ultravioleta (con un campo visual 500 veces mayor que el del Telescopio Espacial Hubble para fotografiar quásares, estrellas pigmeas blancas jóvenes, estrellas binarias reales,
• 12/95, Llegada a Júpiter de la nave interplanetaria Galileo Lanzada en 1977 para estudiar ese cuerpo celeste durante dos años. Su cometido principal: determinar si es un planeta o una protoestrella que no se “encendió” (proceso de fisión), o una estrella enana opaca (enana “marrón”). Una de las pruebas consistió en hacer descender una sonda que tuvo 30 minutos para explorar y enviar información antes de ser consumida por la intensa presión; fortísimos remolinos y turbulencias con velocidades cercanas a la del sonido y altísimas temperaturas. El reemplazo de los dispositivos de recepción - transmisión de su dañada antena de alta frecuencia (desde el inicio de la operación) por mecanismos más sencillos a tan larga distancia, es una proeza de la ingeniería electromecánica y computacional.
• 12/95, Iniciado un ambicioso programa de envío de sondas no tripuladas a Marte. Entre 1996 y 2003 se han proyectado 20 vuelos al planeta. El interés radica en el hecho que es - por ahora - el único candidato del Sistema Solar con posibilidades de albergar vida primitiva, ya que tuvo condiciones para ello (fue antes más caliente y húmedo con ríos y embalses de agua, hoy confinada en los polos y en bolsas subterráneas. En la tierra se ha descubierto un microbio que puede sobrevivir en las condiciones marcianas: vive en mantos acuíferos a grandes profundidades en rocas de basalto con alto contenido en hierro. Los SLIME (Surface Lithoantrophic Microbial Ecosystem) no requieren de luz, ni fotosíntesis para su alimentación. En la tierra primitiva existieron - probablemente - estos organismos, pues la fotosíntesis comenzó hace 2.800 millones de años.
• 12/95, Descartada teoría del invernadero, como consecuencia del calentamiento terrestre, según estudio efectuado por astrónomos solares, quienes demuestran que, al igual que el Sol hay varias estrellas cuya luminosidad cíclica de 97 años + 118 repercute directamente en sus eventuales planetas. Respecto al Sol se vaticina, en consecuencia, que a partir de 1995 (y durante cincuenta años) habrá un período de enfriamiento.
• 12/95, Divulgada - después de su comprobación por otros expertos - la formación de nueve átomos de antimateria (antiprotones) cuya duración en el tiempo tomó 90.000 milésimas de segundo. El experimento comprueba la existencia de antimateria postulada desde inicio de siglo y los astrónomos creen que puede haber otros Universos de antimateria o bien algunas partes del Universo constituidas por antimateria. En el Universo conocido la antimateria al encontrarse con materia (o viceversa) se aniquilan.
• 01/96, Comprobada la existencia de macroestructuras tipo “Gran Muralla”, después de 6 años de observaciones y mediciones de la verdadera estructura del Universo. El estudio comprendió más de 26.000 galaxias en 6 cortes del hemisferio Sur. La presencia de muchas estructuras de esta naturaleza, muestra que la topología del Universo a grande escala es de burbujas gigantescas ordenadas en racimos aun mayores.
• 03/96, Descubierta, por primera vez una estrella de neutrones en el centro de nuestra Galaxia (forma parte de un sistema binario). Esta binaria neutrónica se comporta como un pulsar que expide rayos X a temperatura de varios cientos de millones de grados.
• 04/96, Divulgado un experimento peculiar que demuestra la presunción de la isotropìa del Universo. Se trata de que enfocado un telescopio de “campo profundo” hacia una zona muy pequeña y aparentemente desprovista de estructuras, revela la presencia de miles de galaxias alineadas en dirección de la línea de observación del telescopio.
• 06/96, Revelada la subsistencia de las diferencias arrojadas por los dos métodos de revisión de la edad del Universo. El equipo A dirigido por Allan Sandage (Observatories Carnegie) mediante medición de galaxias con supernovas tipo Ia y el equipo B dirigido por Wendy Freedman (proyecto “Key” de NASA) mediante medición de cefeidas variables, supernovas y nebulosas planetarias comunican sus resultados así: Equipo A : edad 8 a 9 billones de años; Equipo B : edad 12 billones de años. Para subsanar las diferencias se debe recurrir a dos consideraciones teóricas: o bien asumir que la densidad crítica del Universo es baja ( = < 1) o bien introducir en los cálculos la “constante cosmológica planteada por Einstein (que actuaría como una fuerza repulsiva que actúa en contra de la fuerza gravitatoria).
• 08/96, Descubierta la Galaxia S3W091 cuya edad la ubica en un punto del espacio que corresponde a 2.7 billones de años después del Big Bang. Sin embargo sus características intrínsecas y colores, demuestran que su edad es mucho mayor (3.5 billones de años). La única forma de reconsiderar la diferencia es partir teóricamente de la modificación del parámetro que mide la densidad crítica de la materia (esto es pasar de un modelo que asigna a  = 1, por un modelo  = 0.2); o bien a introducir en la medición la “constante Cosmológica”, planteada por Einstein en 1915, que permite hacer los cálculos con un valor del Parámetro de Hubble de 65 Km./megaparseuc Tal decisión, implica introducir otra complicación: aún con un valor de 50 los cálculos no calzan con la observación.

EL RETRATO COSMOLOGICO A FINALES DE 1998

La física actual no puede explicar la razón por la cual un Universo que según el modelo más aceptado nació en caliente, con materia en extremo uniforme y homogénea, cerca de mil millones de años después se haya quebrado y disfrazado para dar origen a cúmulos y galaxias.

Justamente los datos observacionales y las teorías esbozadas acerca de las razones por las cuales ocurrió esta situación no están en la misma línea, lo que ha dado como resultado que en corto plazo la cosmología comience a ser una ciencia por sí misma, apartándose de sus nodrizas anteriores: la filosofía y las teorizaciones matemáticas e iniciando un nuevo camino, de esta vez, como una ciencia experimental y de simulación con pruebas de laboratorio que respalden los planteamientos.

La cosmología actual parte - sin duda alguna de que efectivamente hubo una Gran Explosión que dio origen al Universo - a la vez tiempo, materia y espacio, que luego daría origen al Universo observable. Lo que está en duda, no es ese nacimiento, sino las causas y los mecanismos que lo produjeron, para lo cual entre los años 92 a 94se han elaborado distintos modelos que tratan de explicar tales acontecimientos cósmicos.

Los nuevos modelos asumen que la inmensa mayoría de la materia del Universo es negra e invisible y está compuesta de protones, electrones, neutrones quizá neutrinos masivos, así como "axiones", "neutralinos" y otras partículas aún no nominadas ni descubiertas por los físicos de partículas; pero que en términos generales se conocen como "semillas".

Semillas: Los modelos asumen que para el cambio, necesariamente debió haberse producido la presencia de “semillas” o partículas de condensación, que bien pudieron ser pequeñas, insignificantes y ocasionales o bien defectos exóticos en la estructura del espacio - tiempo tales como las llamadas “cuerdas cósmicas”, “barreras” o “texturas” o “hebras”, como postulan las teorías más recientes. Se ha iniciado pruebas de laboratorio y trabajos observacionales con la idea de discernir como trabajarían distintas combinaciones de esas “semillas”, lo que da como resultado que se propongan diversas estructuras, según sean las combinaciones que se hagan.

Cobe: El satélite COBE (Cosmic Background Exploree) efectuó mediciones de la radiación cósmica remanente de la Gran Explosión y encontró - según predice la teoría - que efectivamente existe un perfecto espectro de radiación de “cuerpo negro” con una temperatura de 2.735 ° kelvin. La teoría de la Gran Explosión predice la formación de determinadas cantidades de elementos químicos ligeros como resultado de la nucleosíntesis, cuando el Universo era una especie de “reactor termonuclear” durante los primeros minutos (los isótopos producidos fueron mezclas de hidrógeno con deuterio, helio (2 y 4) y litio

Densidad de Materia: Los cosmologistas suelen utilizar un valor promedio de densidad de materia que es una fracción de la “densidad crítica” requerida para lograr un Universo bien balanceado entre un proceso de expansión para siempre y un proceso de recolapso. Los cálculos sólo toman en consideración la “densidad bariónica”. (El “barión” es un término genérico para designar la materia corriente y es un promedio de la mezcla de protones y neutrones, en que no se toma en cuenta - por ser muy livianos - los electrones).

Los cálculos que se han realizado para constatar la abundancia relativa de los elementos livianos señalados en la actualidad, toman en consideración - por ejemplo - tanto la destrucción de elementos como el deuterio que solo se pudo producir significativamente durante el Big Bang; como la producción de helio - producido por la combustión de hidrógeno en las estrellas y se concluye que la abundancia relativa cumple con las predicciones de lo predicho por la teoría de la Gran Explosión, B.B., la que en síntesis advierte que ningún elemento podía haberse formado en este evento.

En efecto, durante muchos años, se ha demostrado la formación de elementos más pesados que el helio en las estrellas y por lo que el helio existente remanente (que se ha detectado) es el que se produjo durante la Gran Explosión. Por otra parte la abundancia de elementos liviana - según lo predice la teoría fluctúa entre 1/4 a 10-10 del total predicho, lo que está acorde con la teoría.

Déficit de Materia: El hecho que la cantidad de materia bariónica se encuentre enmarcada justamente en un rango muy limitado como predice la teoría, revela que la cantidad de materia bariónica presente no “cierra” esto es: hay un déficit de materia, pero no bariónica.

Si el Universo tiene exactamente la densidad crítica de 1, como piensan los cosmólogos entonces se requiere materia no bariónica para lograr “cerrar” el Universo y esta materia debe ser oscura.

La densidad de materia detectable está en relación directa con el tamaño de las estructuras en que se encuentre; de manera que a mayor volumen de espacio examinado en esas estructuras, más alta la densidad de masa contenida; por ejemplo en una estrella o un cúmulo la densidad es de 0.7%; en un halo de una galaxia 7%; en un cúmulo de galaxia 20% y en estructuras muy masivas de entre 150 a 300 millones de años luz. La densidad llega muy cerca del valor crítico, hasta casi el 10% de dicho valor (tal es el caso de la estructura recién descubierta conocida como “El Gran Atractor” o “Gran Imán”.)

Precisamente mediciones efectuadas por lo menos por siete grupos independientes arrojan para esta zona del Gran Atractor una densidad de 1+0.3; lo que obliga a admitir la existencia de materia oscura no bariónica. Los cosmologistas teóricos siempre han postulado que la densidad debe ser exactamente 1, porque si fuera menor o mayor habría causado la no existencia del Universo en el primer caso o su recolapso casi al momento de su nacimiento. Precisamente un proceso de inflación o mecanismo similar como ha sido propuesto por teóricos como Guth y Linde, entre otros, creó la planaridad del Universo y mantuvo la densidad en justamente el valor de uno. Pero debido a este nuevo descubrimiento ahora los cosmólogos están pensado que debe haber dos tipos diferentes de materia oscura.

Materia Bariónica Oscura y no oscura: La primera sería materia ordinaria, pero oscura de tipo bariónico que totaliza el 5% de la densidad crítica, en vez del 1% que es visible. Esta materia estaría presente en gigantes planetas volantes libres; estrellas “marrones” (hipotéticas) agujeros negros masivos, que justamente califican porque su masa se habría constituido de materia bariónica resultado de la nucleosíntesis; gas caliente intergaláctico; galaxias recién creadas integradas por grandes e invisibles masas del gas aún no convertido en estrellas.

El segundo tipo de materia oscura - y el más abundante - consistiría en partículas no bariónicas exóticas acerca de la cual se discute si es de tipo oscuro y caliente (hot dark matter) o HDM o más bien fría (cold dark matter) o CDM. La materia de tipo oscuro HDM consistiría de partículas moviéndose muy cerca de la velocidad de la luz desde la época de la constitución de las galaxias; que es menos afectada por la gravedad y tiene dificultades para agruparse, excepto en estructuras en gran escala, que son los mejores candidatos para materia tipo HDM que tienen una ligera masa en reposo a los 25 electrón - voltios.

Los físicos siempre habían asumido que los neutrinos tenían masa cero en reposo. Los cosmologistas les asignaban masa dependiendo de diversas circunstancias y hace escasos meses equipos independientes efectivamente lo comprobaron con neutrinos dotados de mucha masa.

La materia fría (CDM) está constituida por partículas moviéndose suavemente en la época de la formación de las galaxias y con capacidad para formar grupos pequeños debido a la atracción gravitacional. Ejemplos de este tipo de materia pueden ser neutrinos masivos, como partículas varias veces más pesadas que un protón ( a 931 millones de electrón - voltios). Otras partículas más exóticas aún son aquellas livianas, presumiblemente estables (en la teoría de la Supersimetría) teniendo una masa de varios miles de millones de electrón voltios (este tipo de materia se conoce como WIMP). Otro tipo de materia del tipo CDM son los “axiones” que suelen agruparse en pequeña escala. También se encuentran en agujeros negros de tipo planetario formados durante la Gran Explosión. Otras son pequeñas pepitas (nugget) formadas de quarks (variedad conocida como extraña) que nunca se diferenció para formar bariones y que flota en cualquier parte del Universo.

Vacío de Transición: Las “semillas” necesarias para iniciar procesos de agrupación o condensación de materia se dividen en dos tipos: unas fluctuaciones de densidad, otra defectos topológicos en el espacio - tiempo (supercuerdas, barreras, texturas y otros similares). Ambas - se asume generaron una fase de Vacío Transicional en el Universo inicial (Early Universe), causado por las fuerzas electromagnéticas, fuerza nuclear fuerte; unidas en una GUT de Transición, que en principio pudo lograr ambos tipos de “semillas” cerca de 1034 segundos después de la Gran Explosión, a una temperatura de 1028 grados kelvin.

Recientemente se ha propuesto que esta fase transicional pudo haber ocurrido después (decenas de millones de años después de la Gran Explosión). cuando la temperatura era de 100 ° k; esto es mucho después de la era de la radiación de micro ondas de fondo, en la llamada “época oscura” poco antes de la formación de las galaxias y las estrellas. Este tipo de evento - muy frío generaría otras variedades de “semilla”.

Pero sea una u otra la época, lo cierto es que en ambos casos se debe recurrir a dos nuevos fundamentos físicos: uno la existencia de materia exótica; el otro la presencia de una especie de fase transicional de vacío para producir las “semillas”. El problema básico es el crecimiento rápido de las semillas dado que si éstas se produjeron en la época anterior a la radiación de microondas de fondo entonces la isotropía observada de esa radiación requeriría ser más débil y menor. Pero las fluctuaciones menores crecen muy despacio y no habrían formado galaxias, que se sabe pertenecen a la era temprana. Por tanto, se busca una transición más tardía, una que ocurriera después del desacople de la materia en el Universo Primitivo y luego no se viera afectada. Así, las estructuras crecerían rápidamente, una vez formadas, mientras la radiación de fondo no las afectaría.

Nuevo Modelo: Entre los años 94 y 95 surge un modelo que parece ser el favorito: se trata de una combinación de CDM y de aleatorias fluctuaciones de densidad teniendo igual amplitud en todas las escalas. Estas fluctuaciones son los restos fósiles, grandemente alargados de irregularidades microscópicas de Quantum (cuanta) del final de la inflación. Este modelo se conoce como modelo de la materia oscura fría (Cold Dark Matter Model) y es importante recordar que una parte crítica de este modelo es, actualmente la asunción acerca de la naturaleza de las “semillas”.

La combinación alternativa de fluctuaciones de densidad aleatorias con materia caliente (HDM) falla debido a que no produce pequeños objetos como galaxias suficientemente rápido y similar problema ocurre con la combinación con (CDM) dadas las recientes observaciones de galaxias con velocidades de recesión muy altas. Sin embargo los modelos si trabajan bien tanto si son HDM como CEDM, si se les asocia con semillas debidas a irregularidades topológicas del espacio - tiempo, o si se trata de su ocurrencia en la fase de transición posterior. Recientemente el modelo CDM asociado a semillas debidas a fluctuaciones aleatorias de quantum (cuanta) ofrecieron un buen ejemplo de explicaciones razonable a observaciones extra galácticas, incluyendo las propiedades básicas de las galaxias.

Ninguna otra explicación debida a Cosmologías rivales (entre ellas la reciente de la llamada “Cosmología del Plasma” superaron esta prueba.

Cinco Obstáculos: Sin embargo lo que hasta muy recientemente parecía correcto ha comenzado a presentar problemas apenas en 1996, cuando algunos hallazgos observacionales cobran más relevancia. Algunos de los obstáculos son:
a) La misteriosa suavidad (isotropía de la radiación cósmica de fondo)
b) Quasars con niveles muy altos de corrimiento al rojo demostrando así que la materia se agrupó en ellos en el Universo Primitivo.
c) Enormes flujos de galaxias, como la causada por el “Gran Atractor”.
d) Gigantescas y al parecer inexplicables estructuras a escalas de cientos de millones de años luz (Cordones Cósmicos).
e) Grandes escalas de correlación de los cúmulos de galaxias.

Un examen de estos cinco problemas que han surgido permite hacer estas consideraciones:

Respecto al punto a.: Los hallazgos del satélite COBE aseguran que cualquier fluctuación de densidad y temperatura debe haber sido extremadamente suave en el Universo primitivo. Como la medición de la reducción cósmica de fondo es uniforme en todo el cielo, (de un par de docenas de partes por millón) habría que esperar mediciones en el cielo sobre los polos y es esperable que la relación baje a una parte por millón. Si así fuese debe estudiarse si las “semillas” se generaron en tiempos posteriores.

Respecto al punto b.: No hay aparentemente gas intergaláctico en cantidades apreciables cerca de esos quasars tan prematuros. Ni siquiera si el gas alrededor se hubiese incorporado a tales objetos o si de alguna manera se hubiese calentado hasta su ionización total y por ello fuese invisible, pero no suficientemente caliente para emitir rayos X.

Respecto al punto c.: Se ha discutido acerca de los grandes flujos de galaxias, con la implicación que su densidad total es equivalente a 1 en la escala de varios cientos de millones de años luz y la generación de estructuras de esta naturaleza - como el Gran Atractor - dado que ello hubiese requerido fluctuaciones muy fuertes si las semillas eran irregularidades aleatorias - que es justamente lo que la suavidad de la radiación cósmica de fondo tiende a demostrar que no es posible.

Respecto al punto d.: Se debe argumentar que muy recientemente se ha descubierto la formación de grandes mallas o barreras de galaxias que aparecen espaciadas extrañamente apartadas a intervalos precisos de varios cientos de millones de años luz y si hubo semillas aleatorias no podrían producir este tipo de estructuras que ocasionalmente pueden ser rarezas estadísticas, cuando por lo contrario, varias observaciones y cálculos demuestran lo contrario.

Respecto al punto e.: El modelo CDM no puede producir estas formaciones y los astrónomos esperan dedicar más trabajo observacional para hacer conteos tridimensionales de un millón de galaxias dado que los estudios actuales han revisado unas 10.000 aproximadamente.

Discrepancias entre Teoría y Observaciones

1) Durante los últimos años, a medida que se han podido fotografiar los confines más distantes del cosmos, se han ido encontrando galaxias y quasares - los centros de energía de las jóvenes galaxias - que surgieron 2.5 millones de años antes de la Gran Explosión mucho antes de lo que sugieren los modelos estándares.

2) La estructura general del Universo parece estar conformada por un sorprendente amasijo de elementos. En vez de estar distribuidas a lo largo y ancho del espacio en un esquema de racimos de capas, agrupados en estratos, que a su vez se unen para formar esferas huecas con formas de burbujas que abarcan hasta 300 millones de años luz. Finalmente las burbujas anidan en algo parecido a una espuma cósmica que satura todo el Universo. Descubrimientos como estos han causado tal impacto que en los medios de comunicación han aparecido algunas historias que declaran la "muerte de la Gran Explosión". Sin embargo, los más ecuánimes insisten en que tales conclusiones extremas están equivocadas y sostienen que el dato faltante en las teorías sobre el nacimiento del Universo no es la comprensión de la Gran Explosión en sí, sino entender que sucedió después de tan impresionante cataclismo.

A finales de 1995, sin embargo, se da a conocer dos nuevos modelos que pueden sustituir al modelo B. B.

La teoría B.B. encuentra por esta época un serio problema teórico: la edad.

La teoría B.B. encuentra por esta época un serio problema teórico: la edad del Universo no coincide con la edad de algunas estrellas, pero , los cosmólogos que defienden la teoría estiman resolver la paradoja aparente". También hay problemas observacionales, entre otros:

1) Modelo de Werner Israel (Universidad de Alberta, Canadá): Se fundamenta en la teoría y observaciones sobre agujeros negros y en la tesis (aún en proceso de ser completada) de la inflación de uno de estos objetos (de carácter primordial, es decir no asociado a un colapso estelar), sino que involucra al Universo entero. Parte de la idea que el Universo no se dilata con la velocidad necesaria para compensar la atracción gravitatoria provocada por su propia masa, por lo que puede desplomarse sobre sí mismo para formar un agujero negro gigantesco.

El teórico afirma que el Universo actual pudo haber nacido así: de un Universo más pequeño que sometido a un proceso cíclico de contracción - expansión se fue dilatando hasta convertirse en un Universo muy grande. Aunque en realidad este modelo (que se hace público en julio de 1994) aún no ha sido definido en detalle lo importante es que no se pone énfasis en el Big Bang más que como una fase - y ya no del inicio - de la existencia del Cosmos.

2) Modelo LAFEX (elaborado por el Laboratorio de Cosmología y Física Experimental (LAFEX) de Altas Energías del Centro de Investigaciones Físicas, Río de Janeiro, Brasil) Se fundamenta en la combinación matemática de la teoría gravitacional relativista con el estudio de los fotones (partículas de luz), aplicadas al Universo, para plantear la tesis de que el Universo es infinito y plano, lo que puede ser comprobado por el análisis de las ondas gravitacionales (denominada también “mareas gravitacionales”) Otro componente de la teoría es que la gran explosión denominada Big Bang (considerada actualmente como el inicio del Universo), es tan solo una fase de la evolución, esto es, un momento de máxima condensación de un Universo menor ya existente y que a partir de esa condensación entra en la fase de expansión). Este modelo anterior sale a la luz pública en agosto de 1995, y al igual que el modelo anterior ambos son coincidentes en tomar el Big Bang como una fase de condensación máxima en un período determinado de un Universo ya previamente existente.

Como una consecuencia de las distintas hipótesis que salen a la luz pública en esta época, resalta que el concepto tiempo juega un papel de vital importancia y esto nos lleva a plantearnos la naturaleza del tiempo.

LAS FLECHAS DEL TIEMPO

Uno de los elementos constitutivos en el proceso de entendimiento del Universo y “argamasa” básica para construir un modelo es el tiempo, que el hombre Occidental se ha acostumbrado a tratar como una entidad real, fluyente y desvinculada de otras variables, aunque se le suele asociar más con el espacio.

El tiempo y el espacio son dos variables fundamentales que forman la urdimbre y la trama de la vida diaria y los conceptos que la estructuran en un marco lógico - mental. No es posible pensar en nada que no haya sido, sea o haya de ser y, sin embargo, tanto el espacio como el tiempo han sido tratados usualmente como si fuesen un misterio.

Según San Agustín - al preguntarse sobre el concepto de pasado u futuro (y si realmente ambos existen), concluye afirmando que “dónde quiera que estén y cualquier cosa que sean, allí no están sino como presentes”; y luego agrega: “aunque si el presente nunca pasara sería la eternidad.”. El mismo teólogo afirma que no es posible medir el tiempo, porque al hacerlo “no se sabe que se está midiendo” pues nunca se ha definido su duración (larga o breve); ni tampoco puede definirse el concepto “espacio de tiempo”, para su medición, ya que “el presente no tiene espacio”; porque si lo tuviera se debe dividir en “pasado y futuro” y el pasado no se puede medir porque “ya no es” ni el futuro se puede medir, porque “aún no es”.

El Universo perceptible para el observador está dispuesto en el espacio y también en el tiempo, y, en realidad, no resulta siquiera posible enterarse de un acontecimiento o de un objeto que fuese rigurosamente simultáneo en el tiempo, con la percepción de dicho acontecimiento (o de objeto) en el instante en que el mismo se convierte en “conocimiento' en el cerebro. Sólo se adquiere conciencia del espacio - tiempo como continuidad indisoluble formada por una mezcla de espacio y de tiempo, sin que se pueda conocer jamás el espacio solo o el tiempo solo. Un objeto que se perciba a cierta distancia en el espacio estará necesariamente a igual distancia en el tiempo. Por lo tanto, no sería exagerado decir que la “realidad” del espacio - tiempo es algo evidente. No solamente no es difícil concebir el espacio - tiempo (es decir, las 4 dimensiones del Universo), sino que tampoco sería posible percibir nada más que esta continuidad de espacio - tiempo.

Ahora bien, las expresiones “espacio” o “tiempo” aisladas no están desprovistas de sentido, pero no corresponden a nada que la mente humana pueda observar directamente de allí que un Universo tridimensional es pura ficción frente a la realidad objetiva. La “división” del Universo en “espacio” y “tiempo” sólo data de hace unos cuantos siglos.

La noción de un espacio - tiempo continuo se comprendía perfectamente varios siglos antes de la era actual puesto que incluso Aristóteles tuvo buen cuidado en precisar que “La continuidad del tiempo y la del espacio son correlativas”. Por otra parte en la filosofía presocrática ambos conceptos se manejaban por separado (Ver Parménides y Heráclico, por ejemplo). Pero desde el siglo XVI, los físicos perdieron la visión clara e intuitiva que tuvieron los antiguos de esta concepción fundamental de la realidad física. El prejuicio de un espacio y de un tiempo “absolutos” arraigó fuertemente en las concepciones en boga y hoy en día, transcurrido casi tres cuartos de siglo después de que Einstein volvió a los físicos a una concepción sana, todavía subsisten ciertas dudas y son muchos los que suponen que existe una dificultad especial en “imaginar” o “comprender” lo que Einstein quiso expresar.

Es posible tener la idea que el término “existir” se aplica únicamente a algo que es contemporáneo al observador, es decir, simultáneo en el tiempo. Y es posible atribuir al término “existir” este significado, pues en definitiva se trata de un problema de pura definición del concepto “existencia” en que un hecho o acontecimiento quedan fijados con el Universo, por lo que el concepto presente, pasado y futuro de ese “existir” están constituidos por la representación de esa fijación en el eje del tiempo, en una cronología sucesiva que se desarrolla hacia adelante.

Si bien en la vida diaria se puede afirmar que existe una flecha psicológica del tiempo, en la física se distinguen cuatro flechas, para las cuales no se ha demostrado conexión entre sí.

Es necesario tomar en consideración que numerosos autores explican que el desarrollo tecnológico - y sus consecuencias - en todos lo ámbitos de la vida humana y que afectan el planeta Tierra, son el resultado de que Occidente comparte la idea de un tiempo que fluye en una dirección (tiempo lineal) en vez del concepto que arraigó en Oriente de ciclos repetitivos (tiempo cíclico).

Obviamente que en Oriente este ha sido un tema largamente meditado (no debatido) por parte de los budistas, los brahmamistas y los taoístas, pero dentro de la tradición de “ciclos”.

En Occidente durante innumerables ocasiones en los siglos XIV y XVIII el concepto de “tiempo” y “espacio” como entes absolutos o de “espacio - tiempo” han sido objeto de discusiones por parte de pensadores como Voltaire, Bergson, Descartes, Spinoza Spencer, Leibnitz; y de científicos como Rutherford, Kelvin, Becquerel, Newton Plank, Gauss, Riemann, Curie, Clausius, Lyell, Hutton, Darwin, Maxwell, Bolyai, Gödel, Morley.

En el siglo actual, el debate sobre el tiempo se ha llevado a cabo dentro de la noción de continuo espacio - tiempo y han participado en éste: Einstein, Gamow, Friedman, De Sitter, Eddington, Lemaitre, Heisemberg, Koestler, Feymaun, Wheeler, Gell - Man, Gott, Guth, Linde, Hawking, Penrose, Salam, Arp, Kaluza, Klein, Popper, Pablo VI, Juan Pablo II, T. de Chardin. Lo que queda de sus planteamientos puede visualizarse en que el tiempo muestra varias corrientes (si el concepto es válido) en que el tiempo fluye en una sola dirección, esto es, muestra una asimetría total (quizá con excepciones calificadas)

En el planteo de Hawking sobre la aparición del Universo señala tres flechas del tiempo (esto es, tres direcciones en las que éste parece fluir), que serían: las flechas psicológica, cosmológica y termodinámica. A juicio del físico norteamericano Richard Morris plantea que hay cinco flechas definidas, a saber:

Flecha termodinámica: Considerada la más importante en el Universo, está determinada por la expansión ya que en el pasado la materia estuvo más comprimida. En la actualidad muestra un proceso de dilución que se enrumba hacia una dilución mayor en el futuro. Acerca de si la expansión continuará indefinidamente, o si se parará y luego reversará no hay opiniones acordes entre los cosmólogos, porque ello depende de la cantidad de materia presente en el Universo. Aunque los últimos datos a finales de 1991 muestran que la cantidad de materia no es suficiente futuro, aún no pueden hacerse claramente estimaciones como para dar por cierta esta hipótesis. Si contrario a esta posibilidad ocurriera un proceso de reversión el tiempo continuaría fluyendo en la misma dirección (hacia el futuro).

Flecha de la Expansión del Universo: Por ahora, no hay un conocimiento que permita relacionar el flujo de tiempo relacionado con la expansión que muestra el Universo con el fenómeno termodinámico, ya que no se conoce si la dinámica de un Universo en expansión está en relación directa con las interacciones gravitacionales en éste y no se conoce como medir la entropía de un campo gravitacional. Tampoco los físicos tienen seguridad acerca de que manera el concepto de entropía puede aplicarse a la gravedad o si la entropía es un aspecto característico propio de la materia únicamente. Por lo tanto se mantiene sin resolver el problema de la interacción de la segunda ley de la termodinámica (entropía) y el comportamiento de los campos gravitacionales que crea la materia en el Universo.

Flecha Subatómica: En el dominio de la física nuclear que las reacciones a ese nivel ocurren - indiferentemente - en cualquier dirección. Así si cierta clase de desintegración nuclear es posible, el inverso puede ocurrir también. Sin embargo, las reacciones nucleares no muestran una flecha del tiempo, con la única excepción conocida hasta ahora de la partícula denominada “mesón K” ó (KAON) de signo “neutro”, la que tiene un comportamiento asimétrico en el tiempo. Con esta excepción del comportamiento del mesón K neutral, el resto de las partículas no muestran una preferencia en la flecha del tiempo, por lo que puede concluirse que en la práctica no puede señalarse la existencia de una asimetría en el campo de la física nuclear.

Flecha Electromagnética: Las ondas electromagnéticas, por ejemplo la luz, rayos X, ondas de radio, radiación ultravioleta e infrarroja, viajan asimétricamente (sólo hacia el futuro). Sin embargo, en ciertos casos de muy alta improbabilidad, se puede observar el proceso inverso. Esta particularidad ha dado origen a una teoría de Wheeler - Feyman que induce la relación entre campos electromagnéticos y partículas con carga - y aunque su éxito es parcial - permite concluir que hay una relación entre la flecha electromagnética y la flecha de la expansión del Universo (pero sólo en lo que concierne a una eventual y futura “contracción” de éste).

Flecha Psicológica: Si estas cuatro “flechas físicas” no que están claramente correlacionadas, mucho menos lo están con la flecha del tiempo psicológico, pero el hecho que el ser humano está constituido por materia que actúa como una maquina termodinámica puede explicar el porqué de la interrelación entre lo que la mente percibe por la información obtenida de la parte material del cuerpo.

Ahora bien, establecido el concepto de flecha cabe correlacionar éste con el concepto de “corriente” o “fluir del tiempo”, que sería la expresión dinámica del fluir del tiempo - como lo percibe la mente y los sucesos de la física. Aquí resulta que la física no registra - por ejemplo el concepto “ahora”, sino simplemente la dirección del proceso.

En física el tiempo es una dimensión que no tiene instantes específicamente privilegiados (como si sucede - por ejemplo - con el concepto “ahora” en la percepción psicológica del tiempo).

Los planteamientos efectuados en 1908 por el físico inglés MacTaggart, le permiten diferenciar entre la serie A tipificada como (pasado, presente, futuro) y la serie B tipificada como (temprano, tarde), por lo que su juicio muestran ser contradictorias entre si, por lo que su conclusión es que el tiempo no existe, ya que la serie A es de carácter subjetivo - objetivo y la serie B es de orden estrictamente objetivo.

Por otra parte, la duración de sucesos en la flecha y en la corriente del tiempo psicológico está sujeto a muchas variables que intervienen para modificar el concepto de duración de lapsos de tiempo. Por ejemplo los cambios de temperatura; la utilización de ciertas drogas, el efecto de ciertas enfermedades; las esperas - con o sin distracción - todo concluye en permitir apreciaciones del tiempo que varían para enlentecer o para apresurar tales momentos, lo que aumenta la “subjetividad del concepto tiempo” como una entidad real.

Hay además de las direcciones del tiempo otros tres contextos en que se le debe analizar para tener una idea más cabal acerca de éste. Estas son:

Tiempo y relatividad: A partir de la Teoría de la Relatividad Especial, Einstein demuestra como también lo habían hecho Newton y Galileo que el Tiempo es “relativo”, porque es una variable que depende de la velocidad a la que viaje uno o varios observadores que toman nota de un suceso. Y esta relatividad es más acusada cuanto más lejano sea el evento observado. La relatividad especial implica a su vez tres conceptos:

a) Independientemente de la naturaleza del tiempo, no hay una sustancia que viaje a ninguna velocidad en el Universo para dar cuenta de un evento, porque el tiempo en que el evento sucede sólo depende de la velocidad del observador; siendo la velocidad un concepto absoluto (300.000 Km/seg.).

b) De este concepto se desprende un hecho también demostrado por Einstein, que se refiere a la dilatación del tiempo, fenómeno que se observa al aumentar la velocidad de un móvil u objeto en el espacio macro o en el mundo subatómico. De igual manera la teoría predice que un objeto que se desplaza a gran velocidad su masa comienza a crecer y a crecer conforme aumenta la velocidad, aunque tal aumento de masa está limitado - a su vez - por el límite de la velocidad del objeto que no puede viajar a más velocidad que la luz. Tanto la dilatación del tiempo, como el aumento de la masa dependen - a su vez - de la situación de desplazamiento del observador.

c) Hay aún un tercer efecto que plantea la teoría una contracción en su tamaño, haciéndose más corto en la dirección de su movimiento. Este acortamiento no afecta únicamente la materia; pero también causa que se compute diferente las distancias medidas desde el objeto y por un observador. Así las distancias en el espacio y los intervalos de tiempo son vistos diferentes por parte de observadores que se desplazan a velocidades propias diferentes. Esta particularidad del continuo espacio - tiempo se toma como una sola unidad y algunos físicos señalan que en vez de hablar de tres dimensiones del espacio y una del tiempo, es posible usar una “geometría tetra - dimensional que llaman espacio - tiempo”, en donde la última variable se considera fluyendo en eje hacia el futuro.

Paralización del Tiempo: La combinación de la teoría de la Relatividad General con la mecánica Cuántica origina la teoría de la “Gravedad Cuántica” y mediante ella se tiende a especular acerca de las “singularidades cuánticas”, estos puntos en los que la materia llega a estar tan condensada que si la masa de una estrella puede soportarlo sin estallar, colapsa hasta ocupar un volumen nulo (cero) en el que la masa alcanza una densidad infinita. Aunque se discute mucho acerca de si existen o no singularidades cuánticas, y se discute sobre como desarrollar teóricamente la teoría de la Gravedad Cuántica, lo cierto es que, para lo que nos interesa respecto al tiempo se predice que en los agujeros negros el tiempo parece detenerse a los efectos de un observador que estuviese en capacidad de observar el “horizonte de los eventos” de una singularidad de esta naturaleza (El horizonte de los eventos no es una superficie física, sino un lugar en que la gravedad creada por el colapso de la materia es tan fuerte que todo lo que cruce el horizonte queda atrapado, incluso la luz).

Así en un hipotético viaje de una nave a un agujero negro, si otra nave observa el proceso verá que conforme la primera se acerca al horizonte de los eventos comienza a disminuir su velocidad, se paraliza y permanecerá suspendida para siempre, con lo cual el concepto de tiempo se paraliza. Para los tripulantes de la nave que entra en el agujero negro - sobresimplificando todo otro efecto - todo parecerá normal, excepto que jamás verán nada de lo que se encuentre fuera del horizonte de los eventos; es decir habrá desaparecido todo contacto con el “exterior” Según los cálculos teóricos este tipo de sucesos es diferente si se trata de un viaje en el horizonte de los eventos de un agujero negro supermasivo.

Nacimiento del Tiempo: El nacimiento del Universo, según la teoría del B. B. se habría dado por una fluctuación cuántica que ocurrió en un momento hace 15.000 millones de años a una temperatura de 1032 Kelvin, con una densidad de materia de 1018 de toneladas por centímetro cúbico. Precisamente a 10-43 segundos después del inicio del estallido. Esta es la frontera para los cálculos ya que antes de ese instante, la física no tiene respuestas válidas para hacer cálculos confiables en un Universo super condensado y supercaliente. Aquí se inicia entonces el cómputo del tiempo del Universo. Es decir T = 0 se fija en ese momento: 10-43.

En consecuencia, para efectos de tiempo cósmico se inicia el conteo a partir de ese instante, denominado Tiempo de Plank y ello no necesariamente indica que el Universo nace (o es creado) a partir de allí, sino que simplemente, más allá de ese instante todas las leyes conocidas de la física se quiebran.

Antes de la Teoría del B. B. hablar de tiempo = 0 carecía de sentido, porque se asumía que el Universo existía desde siempre. Por ejemplo la Teoría del Estado Estacionario no se plantea el problema y simplemente asume una existencia desde siempre.

En el planteamiento de Hawking, para facilitar al lector el manejo del concepto tiempo, se lanza la idea de un tiempo “imaginario”, para lo cual se fundamenta en la teoría de la relatividad que descarta la noción de “tiempo absoluto”. Así, en el tiempo imaginario de Hawking no se distingue - en absoluto - en las direcciones espaciales y se puede, en consecuencia, ir hacia “atrás” o hacia “adelante”.


REFLEXION FILOSOFICA

Fuera ya de la física es posible lanzar tres hipótesis filosóficas:

a) El Universo fue creado en un momento dado en el tiempo.

b) El Universo existe aún antes del B. B.

c) El espacio y el tiempo son creados en el B. B.

Para los físicos, la tercera opción es la preferible; dado que aventurarse en las otras significa que el tiempo físico ha dejado de existir y en su lugar - según las teorías - a esa escala es posible que el tiempo esté conformado por partículas pequeñas sin una estructura suave, homogénea (a estas partículas se las denomina “crones”), voz derivada de la conjugación de “cronos” (tiempo en griego y “eones” (millones) en griego. Tal clase de tiempo es una sucesión interrumpida de discretos momentos y en sus intervalos nada.

En cuanto a las particularidades de la expansión y la dirección del tiempo en un solo sentido (esto es su asimetría), causan tanto asombro a los físicos, hasta el punto que el reciente concepto antrópico (Principio Antrópico) que es una teoría de los cosmólogos ingleses John D. Barrow y Frank J. Tippler, Brandon Carter (adoptada por S. W. Hawking, Roger Penrose y otros cosmólogos) expresa que el Universo ha sido hecho de tal forma, justamente para admitir el nacimiento de su “conciencia” en alguna etapa de su desarrollo (con la aparición del Homo Sapiens) lo cual ya no es un argumento físico, sino metafísica, que no es posible corroborar cobrarse mediante ecuaciones.

La barrera entre la física y la metafísica es, a veces fuerte y consistente pero, en otras ocasiones, como en lo que respecta al tiempo, es casi inexistente.

LA DELGADA BARRERA ENTRE FICCION Y CIENCIA

En lo que toca a Ciencia - Ficción” posición desde la cual se lanzan al mercado decenas de explicaciones sobre el Universo, es útil examinar los cálculos de un investigador serio: J. Richard Gott, cosmólogo de la Universidad de Princeton, sobre el tema del “Viaje en el Tiempo”, que ha sido ya objeto de otro intento serio de cálculo por parte del cosmologista Thorne S. Kip del Instituto de Tecnología de California. Estos planteamientos muestran el hilo que separa la formulación de modelos del Universo, como un quehacer serio, respetable y necesario, con amplio respaldo matemático fundado en “permisibilidades teóricas”, para usar las propias palabras de Stephen W. Hawking y la “imaginación desbordada racionalmente” - en palabras de su más conocido mentor contemporáneo - Isaac Asimov - en que se mueve el género literario de las ficciones sobre posibilidades dentro la ciencia.

Es de sobra conocido que los humanos pueden viajar libremente en cualquier dirección física, hacia arriba o hacia abajo, a la izquierda o a la derecha, hacia adelante o hacia atrás, pero sólo pueden viajar en una dirección en el tiempo: hacia adelante, nunca hacia atrás. Sin embargo, no hay ningún postulado o ley física que establezca que el tiempo no puede retroceder. Las ecuaciones de Einstein sobre el movimiento son ciertas, desde una óptica matemática, cuando la dirección del tiempo es opuesta a la que conocemos.

Sin embargo, ningún ser humano ha sido capaz de viajar hacia el pasado. Los físicos teóricos piensan que ese punto genera muchas incógnitas. Si las leyes que rigen la naturaleza permitieran realmente retroceder en el tiempo, debería haber algún medio para lograr ese objetivo que sólo se ha alcanzado en la ciencia ficción. Un físico de la Universidad de Princeton parece haber hallado el camino que permita lograr, al menos en teoría, el viaje en el túnel del tiempo. Sin embargo, es difícil que la teoría del investigador se pueda llevar a la práctica, como se demuestra a continuación:

1.- Los cálculos de J. Richard Gott crean una imaginaria máquina del tiempo que toma como base una de las teorías de Einstein que expresa: “Tanto el espacio como el tiempo se distorsionan ante la presencia de masas de enormes dimensiones o cuando los objetos se mueven a una velocidad cercana a la de la luz.” Gott no es el primero en tratar de desarrollar esta idea. En 1988, Kip Thorne físico del Instituto de Tecnología de California (ITC), y dos colegas construyeron en teoría su propia máquina teórica del tiempo y plasmaron sus ideas en la misma revista. La máquina del ITC implicaba la realización del viaje a través de un “agujero de gusano”, decir, en el interior de una singularidad que de acuerdo a los físicos debería encontrarse en el núcleo de un agujero negro. Debido a la infinita densidad y gravedad que existe en el centro del objeto estelar, el espacio podría sufrir una alteración tal que adquiriría la forma de un túnel, mucho más angosto que una partícula Subatómica. El túnel podría llegar a alguna parte distante del Universo. Todo objeto que entre a él aparecería de manera instantánea en el otro extremo, y de producirse una serie de circunstancias especiales, se realizaría - esencialmente - un viaje al pasado.

2.- El viajero en el tiempo tendría que sobrevivir a las descomunales presiones que existen en el interior de un agujero negro y reducir su tamaño de tal manera que pudiera pasar a través de una abertura más pequeña que un átomo. Además, en vista de que el “agujero de lombriz” tiende a desaparecer al transcurrir una fracción de segundo de su formación, sería necesario encontrar un medio para mantenerlo abierto. Sin embargo, según Gott: “la teoría de Thorne es muy ingeniosa y le hizo pensar sobre otros posibles medios para lograr el viaje en el tiempo”. La idea de Gott es más sencilla que la de Thorne. No se requieren agujeros negros ni agujeros de gusano para viajar al pasado. En este caso, las teorías utilizadas por Gott para “Vehículo” son las que describen los campos de energía en el Universo primigenio, apenas unos momentos después de la explosión inicial o Big Bang en que de producirse las circunstancias adecuadas podrían haber sobrevivido en su estado original cordones muy largas y muy delgado de energía pura, a diferencia del resto de las formas de energía que se transformaron cono el resto del Universo.

3.- Estos cordones cósmicos a de un espesor infinitesimal tendrían, sin embargo, una densidad increíble, ya que tendrían miles de miles de millones de toneladas de masa por cada centímetro de longitud. Esta enorme masa deformaría la región situada en los alrededores de la manera que el mismo espacio actuaría como un lente distorsionador de la imagen. Dos rayos de luz proveniente de una misma fuente, una estrella por ejemplo, podrían viajar a través de dos rutas totalmente diferentes, una hacia cada lado del cordón, y llegar en definitiva al mismo lugar. El punto esencial de esta teoría es que estas dos rutas pudieran ser de longitud diferente, dependiendo de la posición de la fuente de luz. Así, debido a que la luz siempre viaja a la misma velocidad, uno de los rayos de luz tomaría un mayor tiempo que el otro para llegar a su objetivo.

4.- Esta diferencia en el tiempo de viaje es el principio fundamental de la máquina del tiempo de Gott quien imagina un cohete viajando con una rapidez equivalente al 99 por ciento de la velocidad de la luz y que tome la ruta más corta de las dos que se le presentan. En teoría, el cohete podría llegar al extremo opuesto de la cadena exactamente en el mismo instante que duraría el rayo de luz en atravesar la ruta más larga. Teóricamente, el cohete viajaría más rápido que la luz y de acuerdo a la lógica peculiar de la relatividad especial, el cohete viajaría al pasado. Por una serie de razones complejas, el cohete tiene que dar una vuelta completa alrededor de la cuerda (aunque si lo hace alrededor de una sola cuerda no se producirá el viaje en el tiempo). Según la teoría, el viaje se produce si existen dos cuerdas que se traslapen a una velocidad cercana a la de la luz.

5.- Si el viaje es posible, en teoría, desafía los fundamentos básicos de la física, por que admite - a priori - como factible que en efecto pueda presentarse antes de la causa que lo provoca una cadena de hechos que parecen inverosímiles: entre ellos el de poder viajar al pasado para cambiar un hecho o suceso del presente o del futuro, tema muy manoseado por la televisión y el cine de ciencia - ficción. Frente a posibilidades teóricas de esta naturaleza que dan campo a muchas especulaciones pseudocientíficas caben dos posiciones: aceptación por más desconcertante que parezca la proposición o, por lo contrario afirmar como Aldoux Huxley en 1963 que: una verdad sin interés puede ser eclipsada por una falsedad emocionante.”

Por su parte el cosmólogo Thorne S. Kip en la obra “Black Holes and Time Warps” hace un recuento de los hitos más importantes que se inscriben en el lanzamiento de posibilidades y conjeturas que se plantean con base en las leyes relativistas y su conjugación con las leyes cuánticas. Como algunas de ellas tienen respaldo físico y matemático serio, es útil hacer una selección para demostrar que lo que separa a la física moderna de la ciencia - ficción es una delgada capa de imaginación; y que a veces, ni esta tampoco parece existir Veamos:

• 1905: Einstein muestra que el espacio y el tiempo no son absolutos, sino relativos.
• 1907: Einstein plantea que el tiempo sufre alteraciones y fluye más lento cerca de un cuerpo masivo y fluye más rápido lejos de éste. (Este efecto se conoce como dilatación del tiempo). La lentitud se explica por la curvatura que sufre el espacio - tiempo circundante.
• 1907: Einstein plantea que la atracción gravitacional debida a un cuerpo distorsiona el espacio - tiempo que le rodea; de manera que a más masa, mayor la distorsión (curvatura o alabeo).
• 1907: Einstein plantea que las ondas luminosas, radio, rayos x, etc.) producidas por un cuerpo A (estrellas, plusar, quasar, galaxia, etc.) al pasar cerca de un cuerpo masivo B (agujero negro, galaxia, cúmulo, etc.), son dobladas por la curvatura del espacio - tiempo de B, que actúa (en este caso) como una verdadera lente (o espejo) gravitacional.
• 1908: Minkowsky unifica los conceptos espacio y tiempo en una geometría absoluta de cuatro dimensiones.
• 1916: Schwarzschil describe la existencia de agujeros negros como una singularidad del espacio - tiempo que al doblarse sobre si mismo atrapa la materia colapsada.
• 1916: Flamm plantea la posibilidad de la existencia de “agujeros de gusano” que permiten pasar de una dimensión a otra.
• 1933: Baade y Zwchy lanzan la idea de la existencia de estrellas formadas exclusivamente de neutrones, como resultado de su colapso gravitario.
• 1939: Oppenheimer y Snyder demuestran que al crearse un agujero negro por colapso de una estrella, ésta desaparece a la vista de un observador externo; no así de uno situado en su superficie.
• 1950: Ginzburg expone la teoría de que los rayos cósmicos son el resultado del giro, a altísimas velocidades, de electrones en el espacio interestelar magnetizado.
• 1955: Wheeler postula la idea de fluctuaciones gravitaciones en el vacío, así como reemplaza los conceptos espacio - tiempo relativista einstenianos, por la idea de la “espuma cuántica” como base de la trama fundamental del Universo.
• 1959: Burbidge demuestra que los lóbulos o excrecencias de las galaxias emisoras de ondas de radio, contienen tanta energía magnética y cinética como la resultante de convertir en energía pura un total de diez millones de estrellas del tamaño del Sol.
• 1960: Granes y Brill demuestran con la solución de una de las ecuaciones relativistas (planteadas por Reissner - Hordstrom) la formación de un agujero negro y un agujero de gusano; así como llegan a la propuesta (que en 1968 Israel demuestra es incorrecta) de que es posible pasar de un agujero negro en nuestro Universo (a través del hiperespacio) a otro Universo.
• 1962: Thorne lanza la “conjetura del anillo”, para demostrar matemáticamente que cualquier objeto microscópico o gigantesco se convierten en un agujero negro siempre que puedan ser rodeados por un anillo rotacional con una circunferencia crítica.
• 1963: Schmidt, Greeinstein y Sandag descubren los quasares, puntos de altísima concentración energética postulados por Einstein.
• 1964: Penrose introduce los conceptos de la topología como una herramienta de investigación y prueba (postulado matemático) que las singularidades se encuentran al interior de todos los agujeros negros.
• 1964: Salpeter y Zeldavich lanzan la idea (correcta) de que los agujeros negros supermacivos son los responsables de la existencia del quasars y radio - galaxias.
• 1966: Geroch demuestra que la topología del espacio puede cambiar momentáneamente formando, por ejemplo un agujero de gusano, por la intervención de una “máquina del tiempo”.
• 1968: Carter describe la naturaleza de los torbellinos existentes alrededor del “horizonte” (superficie) de los agujeros negros y su influencia sobre la materia absorbida por tales agujeros.
• 1969: Hawking y Penrose prueban (por cálculo matemático) que nuestro Universo tiene una singularidad al inicio del estallido que originó su expansión.
• 1969: Penrose descubre la posibilidad de extraer energía de un agujero negro en rotación.
• 1969: Penrose plantea la conjetura de la existencia de un “censor cósmico” que impide la formación de “singularidades desnudas”. De aquí se deduce (por parte de algunos cosmólogos) que la única existente habría sido el Big Bang del cual conocemos su existencia.
• 1969: Lyndell y Bell proponen que el núcleo de las galaxias está formado de gigantescos agujeros negros.
• 1979: Press descubre que los agujeros negros pueden pulsar.
• 1971: Zeldawich lanza la idea de que los agujeros negros radian energía.
• 1971: Hawking propone la formación de microagujeros negros primordiales (10-33cm uno del otro) en la creación del B.B. e introduce las leyes de la termodinámica para explicar la evolución de los agujeros negros.
• 1973: Press y Teukolsky prueban que la energía rotacional de un agujero negro es estable y no puede ser aumentada, ni aún inyectándole energía extra.
• 1975: Page y Hawking plantean que hay al menos 300 microagujeros negros primordiales evaporándose en cada año luz cúbico de espacio.
• 1977: Blandford y Znajeck demuestran que actuando como un gigantesco barrero cósmico un campo magnético puede horadar la superficie de un agujero negro en rotación y extraer energía para los pulsares y la radio - galaxias.
• 1985 - 93: Thorne (y otros) inician varios trabajos que concluyen al señalar lo que al tratar de crear una “máquina del tiempo”, (independientemente del método utilizado) se establece a su alrededor un chorro de fluctuaciones al vacío que destruyen el artefacto al momento de su creación.
• 1991: Israel, Novikow (y otros) demuestran que las singularidades al interior de los agujeros negros envejecen y entran en un proceso de calma imperturbable y sólo reaccionan si la materia que es absorbida por el agujero negro toca su corazón cuántico - gravitatorio.
• 1991: Shajiro y Teukolsky, mediante simulaciones de supercomputadoras demuestran que la conjetura del "censor cósmico" postulado por Penrose debe ser errónea, ya que las singularidades desnudas pueden formarse al implosionar estrellas altamente no - esféricas (grandes perturbaciones en la superficie).

Este último recorrido cronológico deja una lección al permitir visualizar como teorías y conjeturas se hacen y deshacen o se comprueban, lo que le da a la cosmología, esa característica de avance lento y seguro; pero salpicada de ideas extravagantes a veces; pero necesarias para facilitar el avance, porque - como lo demuestra con claros ejemplos Thorne S. Kip - la polémica es en la cosmología, la responsable del avance y clarificación de su resultante: el conocimiento humano.


LA RUTA CRÍTICA DE LA COSMOLOGÍA A PARTIR (1996-1999)

La Cosmología ha dejado sin contestación una serie de preguntas, o ha dado respuestas poco satisfactorias para quienes desean tener una imagen estable y tranquilizadora del Universo.

Esta situación no existe más: para afrontar el final de la actual década resulta que la ciencia ha destronado a Dios y ahora tampoco se conoce la respuesta alternativa, porque las pruebas a las que se somete la teoría del Big Bang si bien pueden ser satisfactorias para los expertos optimistas, dejan a los legos sumidos en la gran confusión.

Durante estas fechas se encuentra de moda efectuar análisis de fortalezas y debilidades de las instituciones y la meta es buscar tanto la visión, como la misión, que reencontradas permitan rectificar rumbos.

Una estrategia oportuna - pero drástica también útil a la Cosmología, es entonces recurrir a la- es la reingeniería que suponer imaginar que nada existe para ir - por inducción - buscando el Norte perdido. Esa es precisamente la propuesta del astrónomo Chris Impert que los astrónomos Joshua Roth y Joel R Primaek aconsejan seguir para saber en donde se encuentra en la Cosmología y que cabe esperar de ellas en el cumplimiento de la misión que si le tiene asignada: descifrar el origen y desarrollo del Universo.

CONSIDERACIONES TEÓRICAS (ENERO 1996)

Tres son las comprobaciones empíricas en que se fundamenta la idea, para lo que es preciso tener una base más o menos firme, a partir de la cual, por inducción se va agregando material proveniente de la experimentación cosmológica.



1) Base Firme: La Edad del Universo es cero; pero debe ser reconstruida a partir del límite inferior y comenzando por la vecindad terrestre ( Notación inglesa) .



A) Rocas lunares y meteoritos encontrados en la tierra = 4.6 billones de años.
B) Estrellas más viejas en los cúmulos globulares de la Vía Láctea La revisión de las teorías de evolución estelar puede dar un estimado más bajo pero poco fiable: = 13 a 18 billones de años.

= 11 billones de años.

Ahora es posible iniciar la contrastación de los datos anteriores con lo que arrojan las observaciones fuera del Sistema Solar, a saber:

Primera Prueba: Coeficiente de Expansión Universal (Ho): No es fácil de medir. Se utilizan a la fecha dos diferentes modalidades cuyos resultados no encajan entre si, conforme se afinan las mediciones el coeficiente sufre modificaciones, que se espera corregir en los próximos 5 años.


Una medición sencilla consiste en basarse en un estimado resultante de mezclar las modalidades de medición y arroja este dato

: entre 40 y 100 Km. por segundo por megaparsec.
Si se asume que el Universo se ha venido expandiendo a esa rata desde el Big Bang, el suceso comenzó
(La primera cifra corresponde al valor 40 y la segunda al valor 100)
: entre 10 a 25 billones de años.
A MÉTODO INDIRECTO
A1) Medición de la luminosidad de estrellas tipo cefeidas variables (método original de Edwin Hubble, correlaciona su porcentaje de luminosidad y la rata a la cual se observa el máximo y el mínimo brillo, para determinar, de seguido su distancia a la Tierra).


: entre 50 a 90 Km. por segundo por megaparsec.
A2) Ahora se correlacionan galaxias cercanas y distantes (relación Tully - Fisher) para mejorar la medición.
Los datos obtenidos con telescopios terrestres arrojan esta cifra
A3) También se utiliza el Telescopio Espacial Hubble para medir cefeidas variables de Cúmulos muy distantes : 50 Km. por segundo por megaparsec

A4) La medición de las cefeidas en los cúmulos cercanos M96 y M96 con el Telescopio Espacial Hubble : entre 69 a 80 Km. por segundo por megaparsec
A5) La medición con el Telescopio Espacial Hubble de la distancia de cefeidas en galaxias cercanas en que han ocurrido explosiones de supernovas,
: 50 Km. por segundo por megaparsec



B MÉTODO DIRECTO:
Medición, desde telescopio terrestres de fuentes luminosas (cúmulos galácticos, supernovas, lentes gravitacionales)
B1) Medición de los cambios de temperatura y luminosidad de las conchas o anillos espectados en explosiones de supernovas (aplicado a más de 12 supernovas)
: 75 Km. por segundo por megaparsec
B2) Medición del efecto Sunyaev - Zel’dovich (consiste en medir el gas ionizado en que se encuentran circundados los cúmulos galácticos, que producen rayos X que distorsionan la radiación de microondas de fondo para deducir la distancia verdadera (se ha aplicado a 12 cúmulos galácticos)
: 35 a 80 Km. por segundo por megaparsec
B3) Medición de los rayos directos y los rayos deflectados en las imágenes producidas por lentes cósmicas para medir el ángulo formado. (Se ha aplicado sólo a un quásar)
: 70 Km. por segundo por megaparsec

R.: A 1996 muestra la necesidad de hacer un esfuerzo por encontrar una prueba confiable.

Segunda Prueba: Densidad de la Materia (o) Mide la materia presente en el Universo actual mediante la combinación de su composición en combinación con sus cambios históricos para permitir calcular si la materia es suficiente o no para detener el proceso de expansión observado. Este coeficiente crítico requiere el equivalente de un átomo de hidrógeno por metro cúbico de espacio. Un Universo colocado entre el límite de la expansión y la contracción se escribe con el valor de: o = 1

A) La medición del Universo observable sobre la base de una densidad crítica de 10 EXP -29 gramos por centímetro cúbico calculada a fines de 1995 arroja este dato

: o = 0.01 %
B) La materia oscura que se estima se encuentra en los halos galácticos arroja este dato aproximado
: o = 0.13 0.30 %
C) Las teorías predicen que la materia oscura se encuentra preferentemente dentro y alrededor de las galaxias (las mediciones efectuadas a la fecha suman unas 12). Los datos permiten señalar esta cifra tentativa


: o = 0.30 %
D) El peso de cúmulos galácticos en los que se asume hay materia bariónica (oscura) arrojan un dato presuntivo de
: o = 0.10 a 0.30 %
E) Los modelos del Universo muy temprano asumen como valor de la materia bariónica un dato de aproximadamente
: o = 0.6 a 0.10 %

R.: Los datos anteriores revelan que la materia oscura contribuye muy poco a la densidad crítica y se espera poner en ejecución otra forma de medición: calcular directamente la desaceleración del parámetro de expansión (Ho), mediante una “candela estándar” que no cambia con el tiempo y puede ser observada a distancias de muchos millones de años luz.

Tercera Prueba: La constante Cosmológica () planteada por Einstein bajo la idea relativista de que el Universo está compelido a contraerse o a dilatarse por la presencia de materia le permitió agregar este factor como una forma de compensar teóricamente el Universo estático. Cuando Hubble descubre que el Universo se expande, Einstein afirma haber cometido el más grave error de su vida. En los años 80 cuando se postula la inflación del Universo como una teoría que permite resolver el problema de explicar como regiones tan apartadas del cosmos muestran la misma temperatura de fondo la constante cosmológica surge como una solución para explicar un problema adicional que la inflación plantea: El Universo es plano.

A) Universo plano, tiene un valor crítico asignado para el parámetro de la densidad de la materia (al igual que un valor para la constante cosmológica
A1) Pero, sumar toda la materia (visible, exótica, oscura el valor es =  1
A2) Si se suma (en teoría matemática) el valor de la constante cosmológica () al valor de la materia (o)
= o +  = 1
B) La constante cosmológica permite, entonces, resolver el problema de la edad (en teoría); Y la comprobación se hace midiendo la luz de los quásars distantes que es reflejada por las galaxias (funcionando como lentes gravitacionales); pero las mediciones actuales muestran que la constante cosmológica apenas contribuye con un porcentaje bajo en el aplanamiento del Universo




= 0.65%

R.: La propuesta de la fase inflacionaria si bien puede resolver en teoría un problema (edad) causa otro (densidad crítica) del Universo plano resultante de la misma teoría.

Cuarta Prueba: Combinación de los Factores Anteriores: Al combinar los tres parámetros (Ho, o, ) con la edad más antigua (13 mil billones de años), que corresponde a los cúmulos globulares, se obtienen estos datos:

A) Universo de baja densidad (con menor aceleración) =  Edad Estrellas
B) Universo de alta densidad (con más aceleración) =  Edad Estrellas
C) Universo de expansión rapidísima (tipo inflacionarios) en comparación con los primeros
=  Edad Estrellas
D) Universos planos o  1 respecto a Universos de constante cosmológica 0
=  Edad Estrellas

Quinta Prueba: Comprobación Empírica: Recientemente se midió la edad de las estrellas de los cúmulos galácticos M96 y M100

Los datos obtenidos muestran que las estrellas más viejas son de  edad que el Universo

Sexta Prueba: Advertencia: los datos de la medición se refieren a solo dos cúmulos galácticos; además hay ahora dudas sobre aspectos importantes de las teorías de la evolución estelar, de manera que solo queda esperar a que la tecnología de punta (que utilizan dos equipos con el encargo de medir las diversas escalas de distancia del Universo) comience a rendir resultados para volver a calcular los 4 parámetros.

ALTERNATIVAS: Mientras los partidarios del Big Bang se alistan para seguir las comprobaciones, los opositores resucitan teorías alternativas. Así 1996 dará paso a otro debate cosmológico, que posiblemente llene hasta el año 2000 en que las comprobaciones empíricas arrojen luz directa al problema

SEGURIDAD: Quienes hayan aceptado a la teoría del Big Bang arriesgan a perder o a ganar todo. Mientras tanto queda la seguridad de las opciones cosmogónicas, que se tratan en la segunda parte de esta obra; o bien afiliarse a Internet para accesar un programa que permite calcular la edad de varios modelos de Universo (Sky Online, Lttp:\\www.skypub.com), lo cual permite al lego participar no como espectador, sino como creador en el ¿infinito y eterno? juego de la Creación del Universo.


SEGUNDA PARTE:
RESULTADOS DE MEDICIONES - (MAYO 96)

A partir de ahora el problema de la edad del Universo comienza a enfocarse no desde una perspectiva teórica, sino desde un ángulo eminentemente empírico: la mediación de la distancia de las fuentes luminosas “candelas” que sirven de parámetros para inferir la edad del Universo, explicando la “constante” de Hubble. En esa línea de acción hay empeñados dos grupos de astrónomos:

EQUIPO A: A cargo del “key Proyect” de la NASA, dirigido por Wendy Freedman de los Observatorios Carndgie, que utiliza la mulición de tipo estandard sobre la base de ubicar estrellas variables tipo cefeida localizadas en galaxias distantes.

EQUIPO B: A cargo del astrónomo Allan Sandage de los Observatorios Ceunigie, que utiliza un método diferente, pues se basa en la medición de supernovas tipo Ia localizadas en galaxias distantes.

Ambos grupos, bajo contrato con la NASA, utilizan el Telescopio Espacial Hubble para estudiar galaxias colocadas a 60 millones de años luz de distancia. Será necesario conocer los resultados de las mediciones que con cierta periodicidad se divulgan, por que ello permite sacar conclusiones sobre varios parámetros que sirven para saber si efectivamente la teoría del Big Bang es o no consistente con este tipo de mediciones.

Por ejemplo en mayo de 1996 los resultados obtenidos por ambos equipos de trabajo arrojan estos resultados:
EQUIPO A: Constante de Hubble: 68 - 78 Km/segundo/Megapaiseu y si se asume una densidad crítica ( = 1) la edad del Universo estaría entre 8 - 9 billones de años, siempre y cuando si la expansión se considera constante desde el inicio.

EQUIPO B: Constante de Hubble: 57 Km/segundo/Megapaiseu y si se asume una densidad crítica ( = 1) la edad del Universo es de cerca de 12 billones de años, asumiendo una expansión constante desde el inicio.

Sin embargo las mediciones de los cúmulos globulares de la Vía Láctea arrojan un estimado que fluctúa entre 12 - 16 billones de años de antigüedad.

Esta discrepancia pone en serio entredicho la teoría del Big Bang y solo es posible encontrar - por ahora - como “salidas” las siguientes: una, que consiste en asumir - a priori - un Universo con una densidad crítica menor que 1 = ( = 1); otra, que ya había sido planteada - por error - por Einstein que es introducir la acción de una fuerza antigrabitacional (que llamó “constante cosmológica” y que permite compatibilizar un Universo cuya expansión haya sido muy rápida (teoría la “inflación” de Guth y Linde, entre otros) y que ya incluía estrellas formadas al inicio del proceso.

El problema es que si los parámetros, según el Equipo B se mantienen en el dato de 12 billones de años, estas explicaciones “salvan” la teoría por ahora; pero no ocurre así si el dato es de más de 12 billones de años (y precisamente muchos astrónomos son partidarios de la edad de 16 billones de años), lo que causa como resultado una gran confusión, dado que no hay - por ahora - ninguna teoría substitutiva que reciba el favor de la astronomía oficial.


Así como es difícil la medición de la atracción gravitatoria en la Tierra (G), y su valor se encuentra en entredicho, también el valor de la atracción gravitacional en el espacio es problemática; al punto que se ha propuesto la posibilidad de que es una cantidad que varía con el tiempo. Si así fuese permitiría reconciliar las discrepancias entre la edad de estrellas presentes, cúmulos globulares con la edad del nacimiento del Universo; la variación que permitiría tal reconciliación es una en que el valor de G sea sensiblemente menor en los primeros instantes del Big Bang; cuando G determina el tiempo en que los núcleos atómicos de los primeros elementos livianos formados deben esperar para convertirse en otros. Pero esta expectativa estrictamente teórica no parece que vaya en la misma dirección que los cálculos empíricos.

Resultados de Mediciones y Correcciones Teóricas
(Diciembre 97)

Reflexión obligada: Coincidiendo con el cierre de la década en que los cosmólogos estaban seguros de ir por camino correcto - aunque como se ha reseñado dejando grandes preguntas al descubierto - el profesor de biología de la Sorborna Remy Chavin se expresa así:

“Antaño el mundo estaba lleno de dioses, que a veces eran crueles, a menudo inconstantes, ¡pero que importa!. Poblaban el Universo, no estábamos solos en él. En aquel entonces la naturaleza era “humana”, permanecía todavía a nuestra escala, y no estaba vacía... (y las explicaciones que nos dábamos estaban acorde con nosotros).. .

Después apareció la Ciencia, modesta al principio, a la sombra de la teología y la filosofía, pero no tarda en crecer. Monstruosamente. Ahora lo engloban TODO... Ha echado fuera a (todos) y hasta el Padre Eterno.. .

Ante la mirada helada e imparcial de la razón, ya no existen más que fuerzas en interacción (débil, fuerte) que obedecen a leyes matemáticas... ya no hay más que átomos (e interacciones entre partículas cada vez más elusivas), siguiendo las leyes del cálculo. Y Chavin se plantea cuales pueden ser las salidas y se responde a si mismo:

La primera: El hedonismo: gocemos de la vida, mientras podamos y muramos sin plantearnos demasiadas preguntas.

La segunda: La ciencia avanza... y por caminos insospechados... la ciencia evoluciona y ¿las nuevas imágenes serán más tranquilizadoras... o más enigmáticas? En consecuencia el Hombre se enfrenta a la necesidad de elección y parece que sólo queda filosofar. Y agrega “ Aunque no me gustan los que hacen de la filosofía una profesión; pienso que cada uno debe filosofar, a su cuenta, so pena de convertirse en un subdesarrollado intelectual.. .”

Revolución tecnológica y repercusiones teóricas: Durante la primera mitad de la década actual se ha utilizado nueva tecnología revolucionaria que, adaptada a la observación y medición del Universo, ha comenzado a rendir sorprendentes resultados; y aunque la verdad es que su iniciación es de décadas anteriores (tanto en su gestación teórica, como en su construcción), también es cierto que lo descubierto en algunos casos confirma la teoría y en otros obliga a rehacerla por completo. En esta parte de la década si bien se han confirmado los planteamientos de Einstein casi con una seguridad de 1 en 100, por otra parte ha quedado en entredicho - entre otras - nada menos que:
a) la edad asignada al nacimiento del Universo;
b) las teorías de galaxias;
c) las teorías de la evolución estelar;
d) las teorías de la formación de la Galaxia Local;
e) las teorías de la formación de planetas;
f) las teorías de la evolución de la vida.

En síntesis: Todo. En otras palabras, si bien es cierto la teoría del Big Bang es hoy la única explicación a que se puede recurrir para explicar el Universo Observable, toda la armazón estructural en que se cimenta nuestros serios agrietamientos planteados por los hallazgos encontrados y las dudas razonables que éstos acarrean.

Casi al llegar al Tercer Milenio , por tanto es posible hacer tan solo esta afirmación: la teoría del Big Bang es admisible como un modelo teórico que se encuentra, a su vez, sustentado en cuatro pruebas empíricas confirmadas: la radiación de fondo, la secesión galáctica, la abundancia (y evolución) de los elementos químicos y el descubrimiento del helio primordial (prueba que aún requiere de mas confirmaciones). No obstante ello, la forma en que evolucionó el Universo después del supuesto estallido primordial, no calza con los últimos hallazgos que la moderna tecnología encuentra paso a paso.

Esta situación obliga a hacer dos esfuerzos: uno teórico que consiste en replantear el modelo Big Bang para que sea consistente con las pruebas empíricas. En este sentido la tarea tiene dos vertientes: por una reformular el inicio “terso y homogéneo”, por uno diferente y contrario; y por otra: reformular todo el proceso evolutivo del tejido altamente estructurado observable (galaxias, estrellas, sistemas solares, planetas). Esta tarea, sin embargo debe complementarse con otra más ambiciosa: buscar un modelo substitutivo al Big Bang.

En esta última línea de pensamiento - si bien minoritaria - por el momento - se inscriben otros planteamientos formulados entre 1994 y 1995:

1) Del grupo de astrofísicos de varias nacionalidades que durante 10 años han estado observando, midiendo y correlacionando la radiación de fondo, quienes afirman - por conducto de su coordinador, el español Rafael Rebolo que: “El Experimento Tenerife ... no prueba la Teoría del Big Bang, aunque si la refuerza”
2) Del cosmólogo canadiense Israel quien afirma que el Big Bang es: “...apenas un momento de máxima condensación de un Universo preexistente de menor dimensión, sometido a un proceso cíclico de concentración y expansión”.
3) Del grupo de astrofísicos brasileños LAFEX, que afirman, por medio de su coordinador, Mario Hovelo que “... el Universo es plano y eterno...”

En anexo al final del libro se hace una revisión de cuáles son los hallazgos más relevantes así como las innovaciones tecnológicas de punta - que han colocado a la cosmología en la actual encrucijada.

Al bordear el Tercer Milenio tal parece que buena parte de los cosmólogos están decididamente a favor de la teoría del Big Bang, no así de los modelos construidos bajo su alero; otros más bien estiman que son tantos los parches y arreglos que ha sufrido que se justifica su sustitución, y tales intentos no han faltado.

Quizá una fórmula ecléctica que permite el avance observacional sin ligarlo necesariamente a un cuerpo de teoría es la propuesta del astrónomo norteamericano Chris Impey, de la Universidad de Arizona. Su posición es un buen ejemplo de una estrategia de reingeniería en una organización o institución y es la que establece que toda regla es válida para reencontrar la misión y la misión perdida.
Impey, con la norma característica de los astrónomos plantea que la forma de reordenar la cosmología es partir de la presunción que “Usted puede ser tan viejo como su madre” (en clara referencia al problema de estrellas más viejas que la supuesta edad de todo el Universo, y entonces propone entrar de lleno a fundamentarse en el conocimiento empírico (obtenido por medio de la tecnología de punta), tomar los datos conocidos y confiables como base de referencia inicial y - a partir de allí - ir construyendo la historia del Universo.

En otras palabras lo que el astrónomo recomienda es utilizar a partir de 1996 el método inductivo y abandonar el método deductivo, lo que deja a la Teoría del Big Bang - por lo tanto - congelada, mientras se despeja el panorama.

Cuando el Gran Debate que culminó en el año 1965 le da la razón a los partidarios del Big Bang, varios cosmólogos siguieron buscando - desde la retaguardia - otras explicaciones, y su trabajo pasó desapercibido. Al nacer la cosmología como ciencia empírica en los ochenta renació el interés por buscar otras teorías o bien bajo la misma del Big Bang lanzar otros modelos; pero al final de década de los noventa es obvio que ese esfuerzo se ha fortalecido

0 comentarios:

Publicar un comentario

Visite

Ultimos artículos de VERDAD-BLOG