Capítulo V: Nuevos rumbos para la Cosmología

(FINALES DE LOS 70 A FINALES DE LOS 80)

Estos años encuentran a la astronomía en un proceso de conjunción de ideas provenientes de varios campos de la física y destacan, entre ellas: la hidrodinámica y la física cuántica subatómica de laboratorio a lo que se suman al trabajo cosmológico normal fundamentado en los conocimientos y las herramientas astronómicas. Más tarde se le unen especialistas en computación con “software” diseñado para tal labor. Todo ello para reforzar y ampliar una teoría que satisfaga una visión unitaria del Universo, como una necesidad de eliminar la discontinuidad en el conocimiento, así como una conjunción con las teorías del microcosmos que extrapoladas permitan conocer mejor - o al menos - buscar una aproximación mayor al conocimiento del macrocosmos y del microcosmos incluyendo la inserción del ser humano y su destino, lo que obliga a postularse nuevas teorías sobre la vida ,y ese órgano con el cual pensamos ,que se supone es la culminación del proceso evolutivo del ser humano.

Asimismo este periodo es sumamente rico en postulaciones teoricas y en concresiones experimentales y observacionales . Se está en plena euforia de los viales espaciales de las naves Apolo y Vikingo (EUA) y Lunad, Progreso (URSS),entre otras. En el campo estrictamente observacional, la astronomía enfrenta el problema de correlacionar la observación visual de los nuevos telescopios, con los datos provenientes de los radiotelescopios (medición de radiaciones en parte del espectro electromagnético) con la que arrojan las sondas cósmicas tripuladas y no tripuladas; los datos de mediciones y observaciones llevadas a cabo con globos de gran altura y también con aviones que alcanzan grandes altitudes (complemento de la medición del espectro electromagnético).

Aunque ya los conceptos semánticos para telescopio y radiotelescopio en verdad dicen poco, pues se han quedado cortos, lo cierto es que los datos empíricos que arrojan estos instrumentos son las únicas herramientas continuas de costo accesible que tiene la ciencia para comprobar lo que la teoría predice o para inferir - a partir de las observaciones - nuevas facetas para remozar la teoría estándar del B.B.

A la par del envío de tripulaciones norteamericanas y soviéticas a dos Laboratorios Espaciales colocados en órbitas estacionarias, ambos países (por aparte) hacen los preparativos finales para lanzar plataformas de observación y trabajo espacial permanentes y aún una serie de dispositivos sofisticados - entre ellos - el Telescopio Orbital Hubble; lo cual aumenta la capacidad para conocer y procesar datos con gran rapidez. Cabe destacar que originalmente muchos dispositivos de observación y escucha deben ser su diseño a solicitudes militares, pero luego al iniciarse la distensión a fines de los ochenta, su uso será compartido para fines pacíficos. En estas décadas sobresalen algunos hitos:

Popularización de la astronomía.- Todos los progresos en el conocimiento de la Luna debido a su observación directa o por medio de alunizajes de naves no tripuladas Lunik (URSS), Géminis y de naves tripuladas del proyecto Apolo (EUA) que permitió el “alunizaje” de seis de estos últimos, así como de las sondas enviadas por norteamericanos y soviéticos a explorar Venus, Mercurio, Marte, Júpiter y Saturno crea una gran expectativa y derrumba mitos que los científicos comparten con el gran público por medio de la televisión comercial y la “satelización de las comunicaciones”. También renueva las esperanzas de los astrónomos para extender el poder observacional hacia otros lugares que tengan menos restricciones que la Tierra.

Surgen los proyectos de Bryan O' Leary y de Gerard K. O' Neil de la Universidad de Princeton, (que luego absorbe la NASA), para poner colonias terrestres orbitando la Tierra, o la Luna o en lugares circunvecinos y no sólo excitan la imaginación de los científicos - que ya había sido precedida por aventuras debido a la imaginación de novelistas de principios y mediados del siglo - sino que obliga al hombre a darse cuenta, de pronto que ya la Tierra, en efecto no es el centro ideal del Universo, mucho menos cuando los problemas originados por las guerras, la contaminación, la destrucción ecológica y la aparición de plagas de insectos y parásitos, virus y microbios “mutantes” le hacen tomar noción de la fragilidad de la vida que le ha tomado a la Naturaleza millones de millones formar lo que es familiar y cotidiano en la Tierra, pero que no se conoce ni es un hecho repetible en otros planetas orbitando alrededor de otros soles.

El esnobismo norteamericano hace su aparición en escena y surgen empresas que anuncian viajes turísticos espaciales a la luna y a planetas vecinos. Las propuestas de la agencia soviética Interspuknik son fuertemente recortadas a inicios de los noventa y la NASA sufre también la cancelación de proyectos ambiciosos. Es el inicio de un esfuerzo a nivel planetario de los principales países europeos, Francia, Italia, Inglaterra, Alemania y de Japón, Australia, China, India, más tarde Israel y Brasil y aún de otros países del globo que comienzan a destinar parte de sus presupuestos fiscales para la exploración espacial.

Búsqueda de vida extraterrestre.- Aunque un nuevo proyecto SETI (Search of Extraterrestrial Intelligence) se prepara para ser puesto en marcha en la década de los noventa con grandes dificultades presupuestarias y - consecuentemente - mucho decrecimiento en sus posibles hallazgos - los nuevos objetivos constituyen un avance en la capacidad de posibles fuentes de comunicación de hipotéticas civilizaciones extraterrestres, con lo cual el proyecto pasará a ser conocido como CETI (Comunication with Extraterrestrial Intelligence).

Las observaciones también orientadas hacia la búsqueda de eventual vida en otras partes del Universo mediante los ambiciosos proyectos OZMA y SETI que reciben mucho impulso en las décadas precedentes, en los ochenta están en su nivel más bajo, cuando además las sondas lanzadas por los soviéticos y los norteamericanos ratifican que no hay “vida” (menos “vida inteligente”) en Venus, Marte, Mercurio ni en los grandes planetas Júpiter, Saturno y sus satélites. El interés -sin embargo- se reaviva en la década de los noventa.

Divulgación popular.- La vulgarización de los conocimientos astronómicos, usualmente reservada a los sacerdotes brujos y shamanes en la antigüedad había sido una labor prácticamente despreciada por los científicos modernos, hasta que, a finales del siglo pasado el francés Camille Flammarion en el campo de la astronomía se convierte en el primer divulgador de los conocimientos obtenidos en un campo en el que aún muchos contemporáneos, siguen creyendo en las predicciones astrológicas o aún confunden la astronomía con la astrología. Esto evidencia la necesidad de aumentar los procesos de difusión - antes llamados “vulgarización” - de los conocimientos de la ciencia cosmológica que ahora muestra como toda área del conocimiento humano, más y más complejidad.

Algunos científicos de gran reputación como Otto Struve soviético - americano; Georgio Abbeti, italiano, Margarithe Hack, italiana, Bernard Lowell, inglés, George Gamow, soviético - americano, Arthur Eddington, inglés, Tomás Comas, español; por citar a los más conspicuos se atreven a lanzar al fin estos conocimientos al gran público cerca de los años 40 al 50.

Esto hace que otras personas que no son astrónomos profesionales a partir de la década de los 60 hagan lo propio incursionando así en un área poco conocida, llena de formulaciones matemáticas y físicas, áridas y poco digeribles, pero que ellos gracias a su facilidad para comunicar por escrito, convierten en temas que apasionan. Tal es el caso de Walter Sullivan, Arthur Clark en Estados Unidos de América, o de Colin Davis y Patrick Moore en Gran Bretaña y sobre todo del biólogo y escritor de ciencia ficción, Isaac Asimov (soviético naturalizado norteamericano).

Para mediados de los setenta surgen los primeros escritores científicos, a la vez que investigadores especializados, entre ellos: Carl Sagan, James S. Treffil, Donald Goldsmith, John Barrow, Joseph Silk, Richard Morris, norteamericanos; Fang Lizhi, sino - americano; Paul C. Davies, John Gribbing, Julian Brown, Colin Wilson ingleses, Jean Andouze y Pierre Thuiller franceses, Steve Reeves, canadiense. Ellos llegan a efectuar una labor de divulgación del quehacer científico en varios campos de la astronomía, pero fundamentalmente en el área de la cosmología que permiten al público no especializado comenzar a entender los “grandes misterios” que se encierran detrás del léxico especializado cosmológico. Todos estos libros son un híbrido entre terminología científica extraída de la física y las matemáticas rigurosas, aliñada con el buen humor de los cosmólogos y de los físicos cuánticos, ambos verdaderos “iconoclastas” en el campo de la semántica científica.

Esta necesaria labor cumple su cometido a cabalidad y hace que la décadas de los ochenta y noventa cuenten ya con un público maduro y serio, en capacidad de entender y apoyar (aunque sea con el pensamiento) el arduo trabajo de pesquisa cosmológica en sus diferentes facetas.

Apoyo a la astronomía amateur.- La conmoción que produce la Teoría General de la Relatividad, las teorías atómicas y su consecuencia real: el peligro nuclear, y todas las fantásticas “paradojas” y conjeturas que se inician a su alrededor, así como el gran interés que despierta la "carrera espacial", hace que afloren nuevas o se fortalezcan publicaciones periódicas que se ven obligadas a divulgar los nuevos conocimientos.

Entre las más importantes se encuentran: “Scientific American”, "Science", "Physic Today", "Mercury" y “Nature”, que son una mezcla de rigor científico y de literatura digerible para personas con ciertos conocimientos básicos de física y matemáticas. Luego hacen su aparición otras obras especializadas y escritores que colaboran en este creciente proceso de difusión como es el caso de “Mundo Científico”.

En el campo de la astronomía observacional “Sky and Telescope” (por su antigüedad y seriedad) y “Modern Astronomy” (por la alta calidad de su material fotográfico) se constituyen en las más importantes y universales de entre ellas y poco a poco los artículos que al inicio están a cargo de escritores especializados en comunicación científica comienzan, a ser divulgados por los propios científicos.

En los últimos diez años nace un interés creciente de parte de jóvenes para el estudio de la astronomía y ciencias correlativas como carreras universitarias que auguran buen futuro a estas nuevas generaciones en los países desarrollados, no así en otras latitudes del planeta, dado el problema de las prioridades educacionales.

Los difusores de los conocimientos ayudan a los medios audiovisuales (planetarios y museos especializados) para hacer más comprensible a los legos, lo que se ha logrado desentrañar - y lo que aún permanece en el terreno de las conjeturas o en el campo de lo desconocido - en esta búsqueda permanente de explicarse todas las interrogantes que plantea el Universo.

La Sociedad Astronómica de Francia (Fundada por Camille Flammarion), las Sociedades Reales de Astronomía de Canadá y Gran Bretaña; la Sociedad Astronómica del Pacífico y la Liga Astronómica en USA, contribuyen en mucho a despertar el interés en la astronomía observacional que inicia su “boom” en los años 60. Esto coincide, al mismo tiempo, con que la NASA difunde fuertemente el conocimiento de los resultados de sus investigaciones para los astrónomos “amateurs” que no desean simplemente ver más allá de lo que la vista humana alcanza en una noche oscura - unas 6000 estrellas más o menos - sino que desean saber más acerca de lo que observan.

Para esta época se crea la Asociación Internacional de Astrónomos Amateurs (I.A.A.A.) que es reconocida por la U.A.I. (Unión Astronómica Internacional), órgano mismo especializado del sistema de las Naciones Unidas, fundada recién en los años 20. A estos esfuerzos bibliográficos se suman las revistas “National Geografic” y “Smithsonian”, que comienzan a matizar sus publicaciones con temas astronómicos y cosmológicos. Asimismo los editoriales de universidades norteamericanas, inglesas, francesas, sobretodo, comienzan a inundar el mercado de publicaciones que dan cuenta de los nuevos avances en todos los campos de la física, y el éxito es tan notable, que pronto los grandes editoriales se suman al esfuerzo.

En ese escenario Carl Sagan, médico de profesión, astrónomo por necesidad y “exobiólogo” por interés, se convierte en el Flammarion de ésta parte del siglo, pues en lenguaje sencillo, con la ayuda de un valioso equipo de colaboradores y ayudas audiovisuales y con el apoyo de la NASA, es la fuente a la que pueden acudir los amateurs en astronomía pero ya no solo en la clásica de “posición de los astros” sino en la moderna que sabe conocer el átomo, la posición de galaxias, la creación del Sistema Solar, la creación del Universo mismo o la posible existencia de otros seres inteligentes en el resto del Universo.

Sagan - a quien algunos círculos científicos reputan de abusar del histrionismo, ha alimentado en su país y fuera de él, el entusiasmo del público por conocer desde una vertiente científica los avances de la astronomía y la cosmología. Aunque los sesenta y setenta fueron décadas en que Sagan brilla como estrella de primera magnitud, su “glamour” ha bajado ya en los noventa; pero hasta finales de 1996 en que le sorprende la muerte seguirá al frente de la Escuela de Estudios Planetarios de la Universidad de Cornell, con muchos proyectos en desarrollo.

Lo importante es que gracias a su prestigio como científico divulgador, productor de televisión, conferencista, y aún hasta novelista, Sagan abrirá el paso a doctorados en astronomía con diversas especialidades que ahora disputan con sus publicaciones el campo que por muchos años llenaron los escritores de ciencia - ficción.

Consolidación de la Unión Astronómica Internacional.- La consolidación de un interés común de la humanidad visible en la creación de la UAI, Unión Astronómica Internacional, permite la realización de congresos y seminarios anuales en el que los astrónomos intercambian información de sus últimos hallazgos para comprobar teorías o para razonar aquellas que apoyan o son desechadas.

Mediante publicaciones periódicas especializadas y libros que recopilan las últimas investigaciones, junto con el establecimiento de redes de comunicación rápida “alerta” a los astrónomos acerca de descubrimientos o fenómenos nuevos, de manera que éstos son fácilmente conocidos en toda la Tierra y reportados a centros especializados.

La UAI se ha dividido en varios capítulos para facilitar el estudio de las materias astronómicas por afinidad y mantiene comisiones permanentes especializadas que facilitan la discusión y la actualización del conocimiento en beneficio de los científicos que sin obstáculos ideológicos del pasado y las restricciones por razón de la seguridad militar, hoy día deben compartir un acervo global para la humanidad.

Nuevos telescopios y radiotelescopios.- El agotamiento de las condiciones óptimas para los grandes telescopios debido a la contaminación visual ocasionada por las grandes ciudades cercanas, obliga al uso de regiones desérticas o desoladas en ambos hemisferios para colocar dispositivos astronómicos más modernos, mediante convenios especializados o cooperación internacional.Esto se logra con nuevos observatorios, dispositivos astronómicos y de proyectos para mejorar y actualizar el arsenal terrestre y espacial con el que cuenta la humanidad en su afán de hacer un esfuerzo por ampliar su “ventana de observación” del Universo. A finales de esta época hay una operación numerosos observatorios dotados de telescopios de apertura mediana y grande, un total de diez radiotelescopios; y se calcula que sólo en Norteamérica (EUA y Canadá), hay en uso más de medio millón de telescopios de astrónomos amateurs; en la zona pacífica (Japón, Australia, Nueva Zelanda), hay no menos de otro millón; en Europa (Occidental y Oriental) otro millón y en América Latina apenas unos cien mil.


EL NUEVO CONTEXTO PARA EL B.B.

Los cambios que se produce en la Cosmología en los años anteriores a la época que se analiza, obligan a establecer nuevos parámetros para el quehacer científico, los cuales se sintetiza en estos aspectos:

a) Del Universo tranquilo al Universo caótico .- Se comprueba día a día la idea de que el Universo a nivel macro se caracteriza no por su quietud y evolución tranquila como siguiendo un patrón determinista, sino que más bien se caracteriza por una gran violencia de formas muy variables que parecen apartarse también de los ordenados patrones evolucionistas de las galaxias, tal y como se describían hace apenas 10 años atrás.

Además, respecto al propio origen y evolución de las galaxias, hay dos teorías. Una teoría en boga en Occidente (hasta 1985) señala que las galaxias se formaron unitariamente al principio y luego por razones de la fuerza gravitacional se fueron juntando para formar estructuras más y más grandes, como cúmulos, super cúmulos e hipercúmulos.

Sin embargo, una teoría soviética que explica el proceso con un modelo diferente comienza - a partir de 1985 - a ganar más adeptos. Esta explicación es la “teoría adiabática”( o modelo del “pancake”) que señala que los supercúmulos de galaxias se formaron primero y luego se fragmentaron en cúmulos y aún en galaxias simples.

A inicios de la década de los ochenta los retratos del Universo no escapan tampoco a las influencias del replanteo de tesis astrofísicas en que se recurre a la física de partículas subatómicas para explicar lo macro observable - y tal incursión en la física cuántica muestra también un panorama de violencia e indeterminación.

Asimismo se debe examinar ahora el significado real que tienen las llamadas fluctuaciones vibratorias que da origen a la “Teoría de las Supercuerdas” en el mosaico estructural universal multidimensional.

Esta teoría se relaciona con la unificación de todas las cuatro fuerzas conocidas en que la gravitación juega un papel de gran importancia, aún no claro para los cosmólogos; pero que ha creado la posibilidad de establecer no solo teorías unitarias (GUT'S), sino ir más allá con una teoría TOE (Theory of Everything), o Teoría del Todo, o bien “Superfuerza” que entusiasma a los cosmólogos por sus futuros frutos que permitan encontrar explicaciones cuantitativas para todas las partículas y las fuerzas del Universo; conocer las entidades pequeñas que lo constituyen, así como elucidar el “principio fundamental” que ordena y coordina las Superleyes Naturales que gobiernan el Universo.

Ampliación de la ventana de observación.- Si con Einstein se da una fractura del pensamiento de tal naturaleza que sus conceptos en menos de setenta años quiebran toda posibilidad de crear patrones deterministas, también los trabajos derivados de la observación que es llevada a cabo con la ayuda de la ampliación de la “ventana” de lo observable, hace que el observatorio clásico de los astrónomos, sufra sacudidas permanentes e incesantes, y que su labor de “observación romántica” se acabe para dar paso solo a la rigurosidad matemática y física de sus mentes auxiliadas con instrumentos automáticos o semiguiados de medición que “aprisionan” lo desconocido y lo amplían o lo reducen para su posterior interpretación en laboratorios especializados.

La cooperación internacional y el temor de la humanidad hacia un cataclismo nuclear o un desastre ecológico está en la conciencia de los astrónomos con una presencia que es más que una incertidumbre para anidarse como certeza, pues esas violencias cataclísmicas se pueden dar justamente en el área de sus conocimientos que por parecer fantásticos solo permean la conciencia de pequeños grupos que insisten que en la Tierra hay problemas y de que estos se agudizan día a día.

La necesidad de reforzar la lucha que se avecina por hacer comprender a los seres humanos la gravedad de estos problemas trasciende el foro de los políticos y requiere el foro autorizado de los científicos y entre ellos en primera línea los cosmólogos.

Presupuestos fiscales.- Los resultados de avance tecnológico derivado de la “carrera espacial” que hasta hace muy poco tiempo aún era una especie de extrapolación de la guerra política entre las superpotencias llevada al campo de la ciencia, hacia vacilar a los astrónomos entre su apoyo puro a lo científico o a la necesidad de seguir el juego a los militares. La ciencia cosmológica espera obtener de allí los recursos para continuar con su labor de descifrar lo que es el nacimiento común y el destino igualmente común del ser humano y de toda especie viviente que alberga la Tierra.

Los militares - pese a los dramáticos cambios geopolíticos - que modifican toda la correlación de fuerzas entre las superpotencias no desean soltar los cables que aprisionan el avance en el conocimiento cosmológico que se mantiene con los sobrantes de la carrera espacial-militar aún presente.

La necesidad de dar autonomía a la labor científica pura es complicada, porque los presupuestos requieren de decisiones con visión de largo plazo (por supuesto alejados de aventuras militares) y ello incide en los montos de presupuesto disponibles y en flexibilidades para dejar o no en empresas privadas el peso de la investigación, con otras implicaciones éticas que rebasan el marco científico.

Planetas extrasolares y vida inteligente.- La búsqueda de civilizaciones en otros planetas habitables - en el evento de que existan una y otros - e independientemente de las formas en que tal vida inteligente se manifieste, constituye también una forma de presión de parte de los astrónomos - hacia la necesidad de acabar de tener un modelo que satisfaga no solo estéticamente, sino la curiosidad ahora más racional y por lo tanto más crítica.
Asimismo la incursión en los instantes anteriores o en las primera instancia del B.B. acerca al astrónomo a otros problemas metafísicos, como si presagiaran la vuelta de lo cosmológico y en este campo a la interrogante de la Causa Primaria del hecho.

Curiosamente los astrónomos que se refugiaron en las dos décadas anteriores en lo observable, deben replantearse su filosofía observacional pues esta parece también cuántica, como Hawking preludia con su “Principio de la Ignorancia Relativa” que recuerda a las frases medievales de “Sólo sé que no sé nada” pero que este pensador físico - matemático lleva más allá al decir: ¡ ni es posible saberlo...!

En fin que sin quererlo, esta década convierte a la astronomía en el sumun del conocimiento y obliga a los legos a no hacer afirmaciones absolutas sino relativistas y fuerza a los astrónomos a ser más aún.

EL UNIVERSO DE HAWKING

Dentro de la fractura del pensamiento que produce Einstein en la primera mitad del siglo veinte, se inserta en esta segunda mitad otra que se debe al trabajo de Stephen W. Hawking, nacido en 1942, físico inglés de la Universidad de Cambridge quien, de alguna manera sirve para ejemplificar la labor de pensadores que con sus planteamientos evolucionan el clásico concepto de hace unos cincuenta años acerca de un Universo fundado en una gran explosión (B.B.) para dar paso a ese mismo concepto pero con una nueva forma de visualización que recibe el nombre de “Universo de Hawking”.

En su libro, “En busca del B.B.”, John Gribbing relata: “Hawking presentó por primera vez esas ideas en el Vaticano en una conferencia sobre Cosmología, en 1981. Los físicos y matemáticos que asistieron fueron recibidos en audiencia por el Papa quien les dijo que era totalmente apropiado que estudiaran la evolución del Universo después del momento de la Creación, pero que el problema del origen del tiempo en sí era un tema de la Religión y no de la Ciencia ya que representaba el trabajo de Dios”... En palabras de Juan Pablo II “cualquier hipótesis científica sobre el origen del mundo como la del átomo primordial del que se derivó todo el mundo físico, deja abierto el problema del comienzo del Universo. La Ciencia no puede por sí resolver una cuestión así: se requiere que el conocimiento humano se eleve sobre la Física y Astrofísica y vaya a la Metafísica; eso requiere, por encima de todo, del conocimiento que procede de la revelación de Dios«. Luego el Papa citó a su predecesor, Pío XII, quien al referirse en 1951 al problema del origen del Universo dijo : “Esperaríamos en vano una respuesta de las Ciencias Naturales ya que los científicos admiten honestamente que están enfrentados a un enigma insoluble”.

Y Gribbin concluye el relato con pleno optimismo que se enfrenta al pesimismo eclesiástico: “Menos de cuarenta años después, esa “vana espera” se está acabando. Muchos cosmólogos no aceptan que el enigma sea insoluble” y existe la creencia de que ahora la Ciencia puede resolver el rompecabezas metafísico del origen del Universo. El Universo de Hawking, irónicamente presentado en esa reunión donde Juan Pablo II reclama aún un papel preeminente para Dios, apunta claramente la forma de solucionar científicamente el más grande de todos los problemas metafísicos.”

Han sido los trabajos de pioneros los que han permitido construir los nuevos modelos (o retratos) del Universo. En sus épocas esos planteamientos no fueron tomados en serio porque se adelantaban mucho al contexto; pero luego al cambiar el contexto sus ideas - tomadas por otros cosmologistas de talento - desde diversos ángulos novedosos son justamente los que sirven para cubrir flancos débiles a una teoría o a un modelo.

Pero se desprende de la suma de los puntos anteriores que la cosmología para la década de los ochenta y de aquí en adelante no será más un trabajo en solitario; sino una aventura de la Humanidad en que las distintas parcelas del conocimiento y del quehacer humano se buscan para darse la mano y se encuentran en esta labor épica en que la Humanidad espera, emocional y ansiosa, compenetrarse de lo que su espíritu intuye, pero semánticamente no puede expresar.

NUEVAS INQUIETUDES COSMOLÓGICAS

En los inicios de los años setenta los problemas de la cosmología se debatían en foros privados a los que asistían tan sólo los especialistas; a mediados de esa década se comienzan a aventurar - como pioneros - los divulgadores de la ciencia en libros y revistas de baja circulación intelectuales que poco a poco comienzan a mostrar cierta esterilidad creativa pero ya para mediados de los ochenta es la prensa en general la que se inicia en esa labor. La razón de ello es que, cada vez más, las revelaciones del campo de la ciencia son noticia que compite -en mucho- con otros temas.

Examinemos estos veinte ejemplos que se incluyen en el mismo orden en que fueron publicados y son - de por sí - muy representativos de las preocupaciones que embargan a la cosmología y a las ciencias de las que ésta se nutre.

Ciencia del caos.- A mediados de los ochenta con la publicación del libro “Chaos” de James Gleick se destaca una polémica sobre el concepto caos. La palabra clave de esta revolución es “caos”. Y para ser exactos, éste es el término más inapropiado que se pueda imaginar para describir lo que se quiere decir. El ser humano tiende a calificar de caótico todo lo que no comprende o no puede describir de una manera lógica. Pero desde hace aproximadamente una década, los físicos y matemáticos se han dado cuenta que ciertos sectores de ese caos en la naturaleza pueden ser descritos por determinadas leyes, que sorprendentemente son además muy sencillas. Los científicos hablan de “investigación del caos”, y sin más ni más redefinieron este término según sus propósitos.

Por lo tanto, caos debe ser denominado solamente aquel sector de lo “confuso” que se rige por estrictas leyes internas, que pueden ser descritas exactamente. Todo lo que sobrepase ese límite, es decir el verdadero desorden para cuyo surgimiento no hay fijas “reglas de juego” matemáticas, no es considerado como caos por el investigador. ¿Cuáles son las características que distinguen al “caos científico”, del otro, llamado “caos determinado”? : Un sistema caótico que se origina de manera ordenado se transformará en un sistema totalmente desordenado; el sistema caótico sigue - fielmente - reglas matemáticas (ecuaciones del caos), actualmente poco conocidas.

Las experiencias realizadas hasta ahora han sido sorprendentes porque el orden surge estrictamente según los conocidos mecanismos de causa y efecto, pero es totalmente impredecible. Con dos ejemplos se puede discernir la diferencia entre un sistema ordenado y uno caótico.
El primero: Keppler descubrió las relaciones causales de los mecanismos orbitales de los cuerpos astrales. Tomando como base su ley planetaria, los movimientos de los astros pueden ser calculados con plena exactitud, y tampoco el acontecer futuro representa un misterio insondable puesto que, por ejemplo, los eclipses de la Luna y del Sol pueden ser calculados con toda precisión con milenios de anticipación.
El segundo: Una piedra que se balancea sobre el filo de un cuchillo está sujeta a la misma fuerza de leyes naturales que el Sol, la Luna y las estrellas (la gravitación). Sin embargo, no es hasta ahora posible calcular por qué lado del cuchillo caerá la piedra finalmente. Si se trata de una roca que rueda por la empinada ladera de una montaña, podrá quizás matar por un lado a un montañista o no causar ningún daño del todo, pero por el otro lado provocaría un alud que podría sepultar un pueblo entero.

Un sistema semejante que sigue “exactamente las leyes físicas de causa y efecto” , pero que tiene consecuencias completamente imprevisibles, es llamado en el lenguaje de la ciencia moderna “sistema caótico”. Por ejemplo, la mecánica descompone cada movimiento, por complejo que sea, en movimientos yuxtapuestos rectos y giratorios. Si se pueden reconocer estadios periódicos, por ejemplo en el movimiento de un péndulo o en el titilar de algunas estrellas, se los descompone en una serie de oscilaciones de diferente amplitud y velocidad.

La geometría clásica y también las matemáticas descomponen cada línea en una secuencia de líneas rectas y sectoriales de círculos de distinto ángulo. Consideran las superficies como compuesta de múltiples superficies exactamente descriptibles, o como rodeadas por líneas. Lo mismo es válido para el espacio. Los “espacios” científicos surgidos de esta cosmovisión no son aptos para describir el caos, y es por esta razón que el científico se ha interesado hasta ahora solamente por aquellos sistemas complejos que podía descomponer en elementos comprensibles.

Pero con el triunfo mundial de la computadora cambió en forma decisiva esta manera de observar la naturaleza. Al contrario que el matemático, la computadora permite analizar modelos de gran complejidad. Si el matemático no logra encontrar fórmulas cerradas en si, con las que pueda describir algún suceso determinado, rápidamente se verá enfrentado con el límite de sus posibilidades. Pero los procesos imprevisibles se distinguen precisamente por el hecho que no pueden ser explicados recurriendo a una fórmula cerrada en sí. Pero la computadora procede de otra manera, según su propia estructura de pensamiento artificial.

El matemático en esta circunstancia, prefiere procesar enormes cantidades de datos siguiendo reglas simples, antes que encontrar por si mismo complejas formulaciones matemáticas. Por lo tanto, la máquina ofrece la posibilidad de “analizar” punto por punto sistemas caóticos, mucho mejor que cualquier matemático.

El programador le proporciona simples órdenes para poder cambiar una simple estructura, y la computadora transforma el resultado de acuerdo con las mismas órdenes que se le han impartido. A veces, estas estructuras surgen después de pocos pasos, y a menudo solo se logran después de complicados procesos pero en ambos casos estas estructuras se acercan claramente a una estructura final, llamada "estructura límite". Las formas geométricas así compuestas son llamadas geometría fraccional, y las estructuras limite fraccionales (o "fractales") y su principal característica es que tienen la misma apariencia, independientemente de la escala que haya podido utilizar el observador.

Para la investigación del caos, la geometría fraccional es el más importante medio auxiliar de que disponen los científicos del caos. Si fuera posible producir con la ayuda de sencillas “órdenes” (ecuaciones de transformación) estructuras como torbellinos en el agua o en el aire, helechos o arbustos, nubes espirales cósmicas o árboles, se abriría entonces probablemente el camino para comprender el surgimiento de estas estructuras naturales. De todo esto surge el hecho: “se puede explicar el caos”. Lo que no tan sólo es válido para estas estructuras en las cuales a simple vista se ven determinadas regularidades o incluso simetrías, sino que - así se supone hoy - también para formas naturales, aparentemente caprichosas es independientemente del hecho de que se trate de materia viva o inerte. Importantes centros mundiales de la investigación del caos, y en especial de la geometría fraccional están actualmente elaborando las bases matemáticas de esta nueva disciplina.

Incluso los científicos no dejan de sorprenderse, - por ejemplo - cuando analizan el orden universal de la naturaleza que se ha descubierto. Se sorprenden por que éste puede ser descrito muy sencillamente, pero son incomprensibles: se les puede calcular fácilmente, pero no se puede predecir su desarrollo y comportamientos futuros. Y no en último lugar se sorprenden por su belleza. Para Heinz Otto Peitgen del Instituto de Sistemas Dinámicos de la Universidad de Bremen de Alemania: “Aquellos que tienen el valor suficiente como para descender del panteón de la ciencia pura, ven por primera vez algo extraordinario: los milagros de la naturaleza. Pero, para los monjes hindúes que ya hace muchos siglos describieron la danza cósmica de Shiva, los derviches musulmanes, los gnósticos cristianos de todas las épocas y los chamanes indios, esta nueva cosmovisión de los científicos naturales de fines del siglo XX apenas les despertará algún interés. Desde siempre han percibido en sus visiones la geometría fraccional, que eternizaron magistralmente en sus mandalas y en sus pinturas”.

Aunque la nueva disciplina del caos investiga aplicaciones en campos muy disímiles como la metereología, la medicina, la biología y la economía, por ejemplo, en el área que nos interesa Edward Lorenz y David Rowlle del M.I.T. trabajan en la teoría de los “atractores” que describen (todavía parcialmente) la evolución de los sistemas caóticos que intervienen - al parecer en la formación de las grandes estructuras del Universo; Michel Henon del Observatorio Astronómico de Niza, trabaja en la formulación de descripciones sobre sistemas caóticos no disipativos (o Hamiltonianos) y otros relacionados con las teorías del plasma y por su parte Mitchell Feigembaum de la Universidad de Texas, trabaja en el descubrimiento de leyes universales del caos, aplicables al nacimiento del Universo; en donde el caos sería ubicuo, estable y está estructurado, según afirma.

Es indudable que los hallazgos que se puedan esperar surgirán de las nuevas revelaciones sobre el orden implícito en el caos estarán - en mucho - sujetas al uso de las computadoras únicas en capacidad de hacer los cálculos requeridos para descifrar las escondidas verdades en que se enmascara el orden que determina el caos y las formas que éste asume. Descifrar y aislar los diversos elementos que interactúan en un problema dado implica que a mayor cantidad de elementos o dimensiones, (o simplemente variables que es necesario considerar), mayor es la dificultad para llegar a conclusiones valederas.

En el área de los estudios astronómicos relativos al momento de la creación y su posterior desarrollo, la dificultad crece exponencialmente, conforme aumenta el número de variables intervinientes; de manera que los cálculos por medio de formulaciones matemáticas de tipo continuo incluyen razonamientos de tipo “no lineal” por medio de ecuaciones diferenciales, ecuaciones integrales y otros tratamientos involucrados en el proceso, que pueden llegar a niveles que los especialistas en matemáticas computacional denominan “intratabilidad”.

Tal situación que significa la imposibilidad de resolver el problema no está en relación directa con limitantes tecnológicas o con el tiempo requerido para resolver las ecuaciones, sino con aspectos que son intrínsecos a las variables intervinientes. En cosmología suele señalarse la imposibilidad de calcular especulaciones - como por ejemplo - la época astronómica en que se podría detener el proceso de expansión del Universo.

Ahora bien, el problema matemático computacional afronta dificultades para arribar a soluciones exactas y no a meras aproximaciones y los especialistas suelen recurrir a métodos de tratamiento de los datos que estarán en relación directa con la complejidad del problema a resolver. Así en una primera aproximación, los datos pueden ser tratados como “valores determinados” y si no se arriba a soluciones, darles otro tratamiento como “valores probabilísticos”; sin embargo, pese a que hay a la fecha dos o tres formas de tratar estos casos, los márgenes de error deben caer bajo límites aceptables (lo que los especialistas denominan como el "valor E" (epsilon) .

Las soluciones obtenidas recurriendo a modalidades de cálculo suelen recurrir a fórmulas standarizadas (como clásicas las previstas por los matemáticos Metrópolis y Ulam, o las más nuevas debidas a Wassilkoski, o a Traub ; sin embargo una idea está cobrando fuerza en el área de las matemáticas y es la que señaló el físico,f ilosofo y matemático austro-norteamericano Kurt Göedel ( 1906-1978) acerca de que, no obstante la existencia de gran riqueza instrumental (caso de la Aritmética), hay teoremas que no pueden ser jamás probados:

1.- De allí hay una base para extrapolar la afirmación de que no sólo es cierta la "intratabilidad matemática", sino más allá, que algunos fenómenos, además de tener esa característica son enteramente indescifrables y están destinados a ser - por siempre - misterios; teoría que colide con la afirmación de Einstein acerca de que lo que más le llamaba la atención era la característica de “conocibilidad” del Universo.

2.- Esa característica de indescifrabilidad del Universo residiría al menos en dos elementos, el primero: la existencia de límites físicos (el tiempo, la dimensión y la energía de Plank) y segundo: las carencias computacionales en términos de tiempo, memoria y energía.


Ambos factores, conjugados darían como resultado el postulado matemático de que ciertas cuestiones científicas tienen como característica el ser: indecibles (undecidable en inglés) y no computables (intractable en inglés), por cuanto no son aptos para utilizar en ellos ni las técnicas clásicas standarizadas, ni las nuevas aleatorias (random en inglés) y por lo tanto de acuerdo con el criterio del matemático Joseph F. Traub, “estarían destinadas a ser, para siempre, indescifrables”.

Una aplicación muy concreta de los nuevos conceptos de caos es la que se conoce ahora como Teoría KAM. En determinadas condiciones, los planetas del Sistema Solar (o las partículas elementales) se mantienen en órbitas estables, a pesar de que ninguna de las “leyes de conservación” ordinarias, como la de la conservación de la energía o de la cantidad de movimiento, les obliga a hacerlo; en otras circunstancias, en cambio, los planetas y las partículas agotan la totalidad de las posibilidades que dichas leyes consienten.

La teoría KAM (iniciales de Andrei Kolmogorov , Vladimir Arnold y Jürgen Moser) arroja nueva luz sobre el problema de la estabilidad del Sistema Solar ( y reviste también interés en el campo de los aceleradores de partículas). Por añadidura, constituye un ejemplo de conexión sorprendente entre dos dominios de las matemáticas muy distantes a priori, pues la diferencia entre la estabilidad y la inestabilidad está determinada por una cuestión delicada de la teoría de números, la aproximación mediante números racionales de los números irracionales.

El problema se enraíza en la mecánica celeste, que mereció la atención de los grandes matemáticos de los siglos XVIII y XIX. Isaac Newton tuvo la idea de que las fuerzas que animan la naturaleza son más simples, que los movimientos que engendran, y que, para comprender el Universo, es preciso describir estas fuerzas -en particular la gravitación- mediante ecuaciones diferenciales. Era posible -en teoría- predecir a partir de ellas los movimientos de todos los cuerpos del Sistema Solar y por extrapolación del Universo entero por toda la eternidad.

Con optimismo propio de su época, así escribía el matemático y físico Pierre Simon de Laplace (1749-1827): “Una inteligencia que, en un instante dado, conociera todas las fuerzas que animan la naturaleza y la situación respectiva de los seres que la componen, si fuera además lo bastante potente para someter estos datos al análisis, abarcaría en la misma fórmula los movimientos de los mayores cuerpos del Universo y los de los más leves de sus átomos: nada para ella sería desconocido y el futuro, lo mismo que el pasado, se hallaría presente ante sus ojos”.

Más tarde fue necesario batirse en retirada y limitarse a una concepción más modesta. “Aunque no existan soluciones explícitas, al menos podemos pensar que, al escribir las ecuaciones que gobiernan un sistema, en cierto sentido puede decirse que éste lo tenemos resuelto”, escriben en R. McKay y J. Meiss en su libro "Hamiltonian Dynamical Systems", de la década de los sesenta.

Desdichadamente, la mayoría de las veces no se dispone de soluciones explícitas, y la mera formulación de las ecuaciones no permite predecir cosa alguna. En Mecánica Celeste, las dificultades surgen en cuanto intentamos determinar el comportamiento a largo plazo de sistemas de más de dos cuerpos. Un planeta podría verse expulsado del Sistema Solar o, por contrario, aproximarse al Sol mientras “no le ocurra un desastre”, en lacónica expresión de Jurgen Moser. En el siglo XIX, Laplace, Joseph Louis Lagrange y Simeon Denis Poisson se esforzaron en demostrar la estabilidad del Sistema Solar, pero sus pruebas, aunque daban ciertas seguridades para el porvenir inmediato -dos o trescientos mil años-, nada decían de su destino final. El “problema de los cuerpos” quedaba planteado.

El caso más inquietante corresponde a la pareja Júpiter-Saturno, cuyos “años” se encuentran en la relación 2/5: en el tiempo que Saturno invierte en completar dos revoluciones alrededor del Sol, Júpiter da cinco. Los dos planetas se encuentran periódicamente en la misma posición relativa, y sería de esperar que las perturbaciones debidas a su atracción mutua se acumulasen, ampliando las modificaciones de las órbitas: ¿podrían sus interacciones reiteradas ("resonancia") llegar a deformar tanto sus trayectorias que sus órbitas dejasen de ser estables?

El problema de la resonancia de Saturno y Júpiter se conoce en matemática con el apelativo de “problema de los divisores pequeños”. Si dos planetas, cuyos movimientos son independientes (no se tiene en cuenta su interacción), viajan alrededor de un sol, resulta perfectamente compatible con las ecuaciones de Newton la existencia de órbitas estables en la relación 2/5. ¿Persisten estas órbitas cuando se toma en consideración la fuerza gravitatoria entre los dos planetas?

Cabe el que las órbitas no sean perfectamente periódicas, sino cuasiperiódicas. Una órbita cuasiperiódica es igualmente estable: se mantiene siempre entre ciertos límites. Además, tal órbita es repetitiva: si observamos las órbitas correspondientes a un intervalo dado, volveremos a encontrarlas más tarde, salvo por una perturbación arbitrariamente débil.

En el caso de que existan órbitas cuasiperiódicas, pueden describirse mediante "series de Fourier convergentes". En 1878, Weiertrass le notificaba a la matemática rusa Sophie Kowalevski, que había conseguido escribir series de Fourier cuyos coeficientes estaban determinados por las ecuaciones del movimiento. ¿Representarían estas series soluciones cuasiperiódicas del problema? Hacía falta demostrar la convergencia de dichas series.

Weiertrass atacó el problema de una serie de Fourier que contiene un número infinito de términos (sinusoides, multiplicada cada una por un coeficiente). La serie ofrece buen comportamiento cuando al sumar todos estos términos (o, por pensar geométricamente, al superponer todas estas sinusoides) la serie es convergente. Se obtiene entonces una función periódica.

En el caso de Saturno y Júpiter, donde el cociente de sus años se aproxima al número racional 2/5, hay un número infinito de coeficientes que contienen divisores muy pequeños. El resultado es que la serie contiene un número infinito de coeficientes muy grandes, que tienden hacia infinito cuando los divisores pequeños tienden a cero. ¿Cómo determinar la convergencia de tal serie?

Se sabe desde Pitágoras que podemos representar ciertos números mediante cociente de dos enteros, lo que no es factible para otros los números irracionales, aunque los números que encontramos en la vida cotidiana son sobre todo números racionales, Georg Cantor (1845-1918) demostró que son infinitos más los números irracionales que los racionales.

La primera indicación de su inexactitud fue una disertación del matemático ruso Andrei Kolmogorov en los años setenta quien esbozó las líneas generales de una demostración: no solamente pueden existir órbitas estables en ausencia de leyes de conservación, sino que, en ciertas condiciones, la mayoría de las órbitas son estables; a los criterios de Kolmogorov se unirían luego las de Vladimir Arnold y de Jürgen Moser, y nacería la teoría KAM, que se ocupa de las perturbaciones de un sistema integrable (un sistema es integrable si posee suficientes leyes de conservación; así ocurre con el problema de los [n] cuerpos.

A comienzos del siglo XIX, Joseph Fourier demostró que una función periódica casi completamente arbitraria -una función que se repite indefinidamente con cierto período- es representable mediante la suma de un número infinito de sinusoides (senos y cosenos), afectados de un coeficiente. Esta suma constituye una serie de Fourier.

KAM afirma que, para perturbaciones suficientemente pequeñas, la mayoría de las órbitas son estables: ya no son periódicas, sino cuasiperiódicas, que nunca se alejan demasiado de las órbitas periódicas del sistema no perturbado. El teorema KAM proporciona respuestas desconcertantes a las cuestiones de mecánica celeste que preocupaban a los matemáticos; no obstante, siguen persistiendo enigmas.

La importancia del teorema trasciende al ámbito del Sistema Solar: ha cambiado de raíz la manera en que los físicos y los matemáticos conciben los sistemas de la mecánica clásica. KAM demuestra que estos sistemas son profundamente diferentes de lo que se imaginaba. Si nos representamos uno de tales sistemas como una lucha entre el orden y el desorden, resulta que el orden es más poderoso de lo que se pensaba, el orden no depende sólo de leyes; en ciertas condiciones, estos sistemas dan pruebas de estabilidad innata. ¿Qué los mantiene? No se conoce la respuesta.

EL MISTERIO DEL CEREBRO COMIENZA A DESPEJARSE

A mediados de los ochenta comienzan a hacerse publicar las características que definen al cerebro humano: un cerebro es un amasijo ordenado de 10 a 100 millones de neuronas, con posibilidades de hacer entre 5.000 a 50.000 contactos con sus vecinos, lo que implica unos 100 billones de conexiones libres, flexibles. A su vez la retina ocular puede procesar 100.000 puntos de una imagen en tan solo 1/10 de segundo. Pero aún esta poderosísima combinación cerebro - retina no permite al ser humano conocer la realidad esencial, esto es la materia en su estado puro, porque aunque la lógica nos dice que el mundo exterior está allí y puede ser observado, lo cierto es que, según los físicos cuánticos, siempre que se observa se modifica lo observado; y ahora, según los neuroanatomistas la realidad se percibe de manera distinta si se es hombre o se es mujer.

En neurofisiología, no es posible hablar de mente, tan solo de cerebro y es, a partir de este concepto que las investigaciones de Sperry, Gazzaniga, Bogen y Mac Lean, permiten afirmar que: El cerebro no es un órgano aislado y único, sino el conjunto de varios espacios que establecen relaciones complementarias entre sí. Una teoría señala que la integración de las percepciones se realiza en un espacio en el tálamo; otra señala que la integración no es de tipo espacial, sino temporal (tipo barrido de radar cada 12.5 milisegundos). Las diferentes zonas del cerebro se asemejan a las capas de una cebolla y cada una tiene una función específica.

Esta es una teoría científica que ya ha sido comprobada (y premiada con el Nobel de Medicina de 1981) y señala que la evolución de las especies ha ido de la mano con el cerebro. Pero no se trata de una sustitución de un cerebro por otro; es más bien una especie de superposición de cerebros en la que el más primitivo fue cubierto por etapas por otro más complejo en “capas de cebolla” para satisfacer las nuevas necesidades de los individuos que pueblan el planeta.

El “Cerebro Triuno” une las necesidades de sobrevivencia del cerebro reptil (cazar, comer, dormir, saciar la sed o reproducirse), junto al razonamiento lógico (propio del hemisferio izquierdo), la intuición y la fantasía (del hemisferio derecho) y las emociones (segregadas en el llamado cerebro límbico). El cerebro triuno es la descripción de un órgano que física, química y biológicamente, es tres en uno. Cada capa es distinta y sus funciones son complejas y complementarias. El primer cerebro sería es "reptil", luego vendría el de los dos hemisferios (independientes entre sí) y finalmente, el cerebro límbico que controla las emociones del individuo: Tres en Uno.

El cerebro reptiliano se encuentra en la región inferior de la cabeza y es una zona que no ha evolucionado y que se halla en el hombre, las tortugas y los reptiles actuales. Rodeando esta capa está el sistema límbico, el cual compartimos con los mamíferos. Estas partes ejecutan los programas básicos de la vida, como los instintos, las pulsiones, las emociones, los miedos y las defensas, los afectos y las agresiones. En resumen cuidan de la supervivencia física y social”.

Luego se sobreponen los hemisferios, el izquierdo (que controla el lado derecho del cuerpo) y el derecho (que controla el izquierdo). Cada hemisferio tiene sus características:

1.- Hemisferio derecho: a) Similar al caleidoscopio; b) Combina y sintetiza las informaciones y crea un todo; c) No actúa linealmente sino que procesa simultáneamente; d) Eficiente en el proceso visual y espacial (imágenes); e) Las palabras parecen desempeñar escasa importancia; f) Relaciona informaciones con metáforas, analogías y visualizaciones; g) Es creativo, alucinatorio, artístico, mítico y energético.

2.- Hemisferio izquierdo: a) Similar a una computadora; b) Es analítico, lógico, aritmético, racional, simétrico y consciente; c) Es también lineal, secuencial, realista, científico y cronológico; d) Pasa de un punto a otro mediante reglas de lógica; e) Asimila en relación causa - efecto; f) Procesa información verbal.

Los neurofisiólogos manejan dos hipótesis para explicar cómo funciona la percepción que produce un objeto físico de cualquier naturaleza en el ser humano. Así al observar el Sol, por ejemplo nos damos cuenta que tiene color, temperatura, que está colocado a determinada distancia; que se mueve. Cada una de esas sensaciones viajan desde distintos receptores (sentidos) al tálamo y a la corteza cerebral y allí se agrupan las percepciones fragmentarias para adquirir unidad.
1.- La primera hipótesis: (conectiva - espacial) explica que las células especializadas se transmiten, una a una toda la información de entrada, la cual es procesada formándose un conjunto espacial de neuronas activadas que al descodificar las señales envían de vuelta por medio de descarga eléctrica las órdenes para que las sensaciones se perciban como una unidad coherente.
2.- La segunda hipótesis debida al colombiano Rodolfo Llinvar, neuroanatomista en la Universidad de Nueva York, explica que el proceso no es de carácter espacial sino temporal: todas las neuronas encargadas de transmitir situaciones envían al tálamo las descargas eléctricas cargadas de información. Allí se encuentra un dispositivo “radar”, que barre cada 12.5 milisegundos la zona, descodificando la información y produciéndose en cada “barrida” la unión de las percepciones separadas. Estos “guantes” de percepción física, son a su vez “guantes” de percepción de la conciencia; así la persona experimenta en cada barrida un “retrato de la situación”.

El cerebro no funciona siempre a igual intensidad: así en el estado de vigilia, de sueño, de distracción, de atención total, de alegría o de temor, o por la existencia de desórdenes psiquiátricos o bien de inducción de estados especiales (hipnosis) o bajo la acción de estímulos (drogas, corriente eléctrica, frío, calor) el ciclaje es diferente y las percepciones se modifican.

De esta manera se explican actualmente las percepciones de quienes dicen haber visto naves extraterrestres, o haber viajado en ellas, o de quienes al tener percances de muerte transitoria afirman haber visto “luces”, “túneles” y otros objetos o personas. En estos últimos casos los neurocientíficos manejan la hipótesis de que tales experiencias mentales se deben a cambios en los flujos de oxígeno en el ciclaje. Hasta el momento se ha documentado bien tres tipos de percepciones, claramente alucinógenas es decir que no existen pero que excitan al cerebro como si fuesen reales las audiciones y las visiones fantasmas y - en el caso de personas amputadas - la sensación de tener aun el miembro amputado.

Para los especialistas en la nueva ciencia Cognitiva o Cognotivismo y específicamente para el norteamericano Martin Gadner, el conocimiento debe abordarse con base en estas premisas:

1) La creencia de que la actividad cognoscitiva humana debe ser descrita en función de símbolos, esquemas, imágenes e ideas y otras formas de representación mental. Esto sitúa a dicho campo firmemente en las tradiciones tanto del pensamiento antiguo como del sentido común contemporáneo.
2) La tendencia a considerar a la computadora, sino como un modelo, si como una herramienta para estudiar la mente: dado que el escepticismo por las computadoras generalmente conduce al escepticismo por la ciencia del conocimiento.
3) Reducir la importancia del “afecto, el contexto, la cultura y la historia”. Los problemas se deben estudiar de tal manera que pueda darse razón suficiente sin tener que recurrir a esos “conceptos oscuros”.
4) La certeza en la investigación interdisciplinaria. Una ciencia del conocimiento independiente “permanece fuera del alcance”. Por ahora, individuos de diversos campos deben trabajar unidos.
5) Un tradicionalismo en el tratamiento de problemas filosóficos clásicos.

¿ Doxa o Episteme ?.- Cuando hace años el filósofo José Ortega y Gassett señalaba que el nuevo científico (El nuevo profesional) es poco menos que un bárbaro civilizado, quería decir que si en algo sabía, tal conocimiento era cada vez más y más sobre un dominio intelectual de menor alcance. En el fondo el filósofo abogaba por el mantenimiento de una nueva epistemología, esto es, de la unión de lo disperso (el conocimiento “fenomenológico” ubicado en “islas” o “profesiones”), pero además intuía la necesidad de llegar al conocimiento de la esencia de las cosas (“noumeno”), que es en primera y en última instancia el intento de la física moderna y por ende de la cosmología actual.

En esta línea de pensamiento el intento del cognitivismo es apartarse de las opiniones (doxa), para entrar de lleno en el conocimiento puro (episteme), al que se llegaría por la aprehensión de las connotaciones de materia-antimateria; así como de paso de materia a energía o viceversa; o bien de estas mismas entidades expresas como partículas realmente elementales (quarks, antiquarks), o bien de paquetes de información (“bits”) subyacentes en las nociones de la materia. Este abordaje ha hecho entrar - de lleno el estudio de la psicología tradicional en el “fisicalismo”, fuertemente reduccionista. Toda la polémica que se ha desatado alrededor de esta aproximación al conocimiento se analiza con más detalle en otra parte de esta obra, porque la visión reduccionista tiene raves implicaciones para el concepto de "conciencia".

¿ Origen de la vida ? .- A mediados de 1989, ante más de trescientos investigadores del European Molecular Biology Laboratory (EMBL) el prestigioso filósofo de la ciencia Karl Popper, de 87 años, expuso su opinión en torno de una nueva teoría vinculada con los orígenes de la existencia.

El tema del encuentro era los orígenes de la vida. Y en este sentido, Popper presentó la teoría, desde su punto de vista revolucionaria de un químico de Munich, Günter Waechtershaeuser. “Antes de conocerla, explica Popper, creía que la teoría más exacta era la del caos inicial. Una suerte de cóctel de sustancias químicas, una chispa y he aquí la primera célula. Luego Gunter me explicó su teoría de “metabolismo de superficie”: pasamos jornadas enteras hablando del tema, demostrando la teoría pieza por pieza. Al final me convenció de que tiene bases más sólidas que la otra hipótesis”

El gran escollo para los científicos que querían explicar el hecho esta determinar que factor, diosa de la casualidad o de la improbabilidad, produjo el fenómeno. “En lugar del caos inicial, teoría convenientemente aceptada; esta nueva idea parte de sustancias más elementales: como anhídrico carbónico y agua y de un lecho de piedra con una carga eléctrica positiva”. Waechtershaeuser demuestra que, a través de simples reacciones químicas, sobre aquella superficie se puede formar una capa sutil, una película del espesor de una molécula de organismos “casi vivos”. No celulares, pero en condiciones de crecer y transmitir un mensaje hereditario. Sólo en una segunda etapa estas criaturas desarrollan una membrana protectora que se cierra, dando origen a la primera célula auténtica. “Entonces y solo entonces, la vida se separa de la roca y encara el mar abierto... y la gran aventura comienza sin ninguna necesidad del rayo de Zeus...”

El problema del origen de la vida no es ajeno a ningún ser humano, todos en algún momento de nuestra existencia nos hemos hecho esta pregunta: ¿De dónde vinimos? ¿Fuimos creados por un ser omnipotente o somos producto de una larga y tortuosa evolución?. A partir de la propuesta aceptada por Popper el conocimiento de la aparición de vida que Popper llama la “otra hipótesis” es esta: Según las teorías cosmológicas, la edad del Universo se estima en 15.000 millones de años y hace aproximadamente 4.500 millones de años se formaron los planetas del Sistema Solar junto con el cortejo de satélites que los acompañan.

La Tierra, como parte integrante de nuestro sistema planetario, tuvo sus características propias: en ella no existía el día ni la noche, estaba rodeada por nubes que la opacaban y cubierta en la mayor parte de su superficie por agua, no pudiéndosele llamar mares sino masas fangosas y semilíquidas que continuamente recibían impactos de meteoritos. Una atmósfera enrarecida estaba constituida por una mezcla de gases como amoníaco, hidrógeno, ácido sulfhídrico, nitrógeno, metano, dióxido de carbono, monóxido de carbono y vapor de agua, el “oxígeno se formó mucho después.” Estas eran las condiciones existentes en la Tierra hace 4.000 millones de años, es decir, 500 millones luego de su formación.

En el año 1953, Stanley Miller, un estudiante de la Universidad de Chicago (hoy profesor en la Universidad de California en la Joya), mediante un experimento que asombró al mundo científico de aquella época, logró una verdadera revolución sintetizando sustancias básicas para la vida a partir de los átomos y moléculas presentes en la atmósfera primitiva. Su ensayo consistía en lo siguiente: utilizando un matraz contentivo de gases que simulaban la atmósfera originaria (metano, amoníaco, vapor de agua e hidrógeno) y haciendo pasar repetidamente descargas eléctricas a través del aparato como fuente de energía, pudo obtener 14 aminoácidos diferentes. Hay que dejar claro que en la Tierra de aquel entonces, la energía no sólo podía provenir de las tormentas eléctricas sino también de las erupciones volcánicas y de la intensa radiactividad existente.

Este experimento fue posteriormente revisado y realizado en numerosas oportunidades y con ciertas modificaciones, por muchas personas, entre ellas clérigos de la Iglesia Católica con conocimiento científico quienes comprobaron la experiencia de Miller. En estos repetidos ensayos, no sólo se llegó a sintetizar aminoácidos, sino además compuestos como el ácido carboxílico, aldehídos, azúcares, úrea, la adenina que es una base que forma parte de los ácidos nucleicos: Ácido Desoxirribonucleico (ADN) y Ácido Ribonucleico (ARN), Nucleónicos y ATP (Adenosin trifosfato) que es una molécula almacenadora de energía, la cual interviene en la gran mayoría de las reacciones biológicas que requieren incorporación energética.

Para el año 1968, los doctores G.W. Hodgson y Cuyril Ponnamperuma descubrieron la molécula de porfirina que cuando incluye en su estructura a un átomo de magnesio y químicamente sufre pequeños cambios, se transforma en la molécula de clorofila que es la sustancia clave para poner en marcha el proceso fotosintético fundamental para la vida que se iban depositando y aumentando su complejidad en los océanos primitivos. ¿No podría ser posible entonces que estas sustancias intercalaran entre si y generasen otras moléculas más complejas?

Esta interrogante fue también respondida tiempo después mediante la experimentación por el científico S.W. Fox: Al mezclar aminoácidos obtuvo sustancias semejantes a las proteínas a las que llamó proteinoides, luego, haciendo incidir radiaciones gamma sobre estos últimos compuestos se formaron ácidos nucleicos.

La formación de proteinoides se cumple más rápidamente cuando el proceso ocurre sobre arcilla, ya que ésta posee metales que actúan como elementos catalizadores, acelerando las reacciones entre las moléculas. Si los proteinoides son sometidos a la acción del agua caliente, se reúnen y originan diminutas esferas cuyo diámetro varía entre 0.5 y 80 micras, rodeadas por una membrana periférica que solamente es permeable a ciertas sustancias, hecho importante porque favorece determinadas reacciones internas en las microvesículas.

Los ácidos nucleicos, responsables de la herencia y las proteínas, con acción enzimática, al combinarse forman un sistema capaz de reproducirse, pero por ser un modelo muy primitivo en él se pueden presentar numerosas mutaciones, signo inequívoco de evolución. A este sistema con características y propiedades individuales, que contrasta con el medio que los circunda, se le llama "protobionte"; los protobiontes se pueden presentar con diversa estructura y composición hecho determinante en la aparición de la competencia. Este sistema también ha sido comprobado por un experimento similar al anterior.

El profesor H. D. Pflug, del Instituto Geológico de la Universidad de Giessen, explorando una región del suroeste de Groenlandia encontró en los años setenta fósiles de 3.700 millones de años de antigüedad que podrían corresponder a protobiontes, cosa que aún no se ha comprobado; se puede aproximar más a esta afirmación el hallazgo de fósiles de bacterias y algas cianoficeas incrustadas en rocas de 3.000 millones de años, caracterizadas porque el material correspondiente al núcleo se encuentra disperso por toda su estructura, razón por la cual se les llama a estos cuerpos fósiles procariontes. Cuando el núcleo, contentivo del material genético está rodeado por una membrana que lo limita del resto, se les llama eucariontes; se han encontrado fósiles eucariones en rocas de 800 a 1.500 años y millones de años. La Naturaleza tuvo al factor tiempo de su lado, lo que consecuencialmente llevó a la aparición de organismos que presentaban mayor complejidad (células eucariontes).

Llama mucho la atención el hecho de que no se han hallado estructuras intermedias entre los procariontes y los eucariontes, lo cual es sugestivo para la formulación de nuevas ideas e hipótesis. Por estudios de fósiles encontrados hace 2.300 millones de años, se determinó que las algas cianoficeas ya tenían la capacidad de captar la luz solar y realizar el proceso de la fotosíntesis que traería consigo la liberación de oxígeno a la atmósfera, siendo éste un elemento tóxico y por tanto nocivo para la vida de aquel entonces.

Con base en esto, se propuesto la siguiente hipótesis: se cree que muchos organismos unicelulares tuvieron que refugiarse en el fango, o penetrar al interior de otras células que se resistieron a perecer en tales condiciones. Los organismos que llegaron a invadir a las células aerobias, finalmente terminaron formando mitocondrias (estructuras encargadas de la respiración celular) y las algas cianofíceas que como se dijo eran las encargadas de la producción de oxígeno, se cree que también fueron capturadas por las células que se adaptaron al ambiente oxigenado, transformándose luego en cloroplastos.

A partir de estas células con mayor complejidad, el proceso evolutivo cobró más fuerza: ahora las células tienen la capacidad de reproducirse, de metabolizar nutrientes, de captar y excretar sustancias. Algunas células se beneficiaron de su entorno y aparecieron las especies. Estas lucharon por la supervivencia agrupándose en colonias, originándose grupos pluricelulares, los cuales sufrieron procesos de diferenciación que se tradujeron en la formación de órganos, posteriormente sistemas y en última instancia organismos.

Como hemos visto, en la Tierra primitiva, se dieron las condiciones necesarias para el surgimiento de la vida: combinaciones de gases más la incorporación de energía, pudo originar aminoácidos y estas proteínas con propiedades enzimáticas (catalíticas) y estructurales (conformación de paredes celulares y organelos y; además, la síntesis de ácidos nucleicos fue la base para la transmisión hereditaria, existía el medio propicio para la aparición de carbohidratos (azúcares), la molécula de clorofila pudo dar inicio a la fotosíntesis. En conclusión, sólo se requería de muy largos períodos de tiempo (se estima en 3.000 millones de años) y la incursión constante de diferentes formas de energía (actividad volcánica, radioactividad, tormentas eléctricas, radiaciones solares y moléculas de reserva energética como el ATP entre otras) para que la vida tuviera su asiento definitivo en la tierra.

El astrónomo Harlow Shapley, de la Universidad de Harvard dijo en una oportunidad al referirse a la teoría de Miller: “es maravilloso pertenecer al grandiosos espectáculo de una evolución, siquiera debemos precisar que somos descendientes directos de algunos gases nauseabundos y ciertas descargas eléctricas”.

Discrepancias con el Origen de la Vida.- En estas épocas cobra fuerza nuevos criterios acerca de cuál podría ser la fuente de la vida en nuestro planeta , porque han comenzado a aflorar con fuerza, las ideas propugnadas por Carl Sagan de la Universidad de Cornell y por Christopher Chyba de la NASA. Su criterio difiere de la tesis original de Stanley Miller y plantean que la vida en la Tierra se originó debido a la lluvia de polvo cósmico sobre el planeta durante millones de años, antes que por la acción de los rayos solares y la electricidad sobre la atmósfera o aún por los impactos de meteoritos sobre la superficie, como se venía suponiendo hasta ahora en otra teoría rival a la de Miller.

La teoría de Sagan y Chyba parte de dos hechos: que los asteroides y cometas contienen moléculas de carbono similares a las orgánicas, y que la Tierra ha recibido desde su formación una lluvia de partículas. Ello coincide con lo que afirman los físicos Fred Hoyle y N.C. Wickramasinghe, según los cuales la vida terrestre se habría originado a partir de los microorganismos transportados en los diminutos granos del polvo cósmico que viaja por el espacio.

Actualmente caen unas tres mil toneladas anuales de polvo cósmico, de las cuales una décima parte es materia orgánica, pero en los orígenes del Sistema Solar, la cantidad era mucho mayor, unas 60.000 toneladas al año, según calculan Sagan y Chyba. La importancia de esta lluvia en la creación de organismos vivientes depende de cuál haya sido la composición de la atmósfera terrestre primitiva, porque los estudios recientes sostienen que, en vez de ser de metano, amonio e hidrógeno, como se creía, era de vapor de agua y dióxido de carbono lanzado por los volcanes.

En esas condiciones, la producción de materia orgánica por los rayos ultravioletas y los meteoritos es menor que en el primer caso, aumentando la importancia de las partículas extraterrestes. Esta cantidad, acumulada durante cientos de millones de años, aportó el 15 por ciento de la materia orgánica de nuestro planeta, según calculan los investigadores, que consideran que su teoría sobre el origen de la vida, es compatible con las dos vigentes.

Según otros criterios - esta vez de geólogos de la NASA el planeta Tierra se formó hace unos 4.610 millones de años (Ma) a través de la concentración y condensación de la materia y la energía interestelares, mientras se consolidaba el Sistema Solar.

Tras la formación de la corteza y su enfriamiento, la vida surgió en un momento y modo que no se han determinado, aunque los fósiles más antiguos, hallados en Suráfrica, datan de hace 3.400 millones de años y corresponden a organismos primitivos, sin un núcleo celular diferenciado, que contenía el material genético, en un gran salto de la evolución de la vida, que hasta entonces se limitaba a los océanos.

Después aparecieron organismos más complejos como los animales terrestres, loe elementos esqueléticos, los peces, los animales voladores y los reptiles, hasta que hace 200 millones de años aparecieron los primeros mamíferos, hace 100 millones de años los primates y hace unos 2,5 millones de años comenzó la línea directa que llevaría al hombre actual.

Sin embargo para otros estudiosos como el biólogo Leslie Orgel, del Instituto Salk, EUA, “la historia de los orígenes de la vida no puede reconstruirse y está perdida”, aunque se tenga idea de cómo ocurrió y se intente repetirlo en el laboratorio.” Cual sea la tesis correcta es un asunto que aún no se ha dilucidado y el intento de Waechtershauser, es uno más por modificar el modelo de Miller, que tiene como antecedentes trabajos previos de Harold C. Urey en USA y de Alexander Oparín en la URSS.

En febrero de 1994, nuevamente Stanley J. Miller, en asocio de Jeffrey Bada, dan a conocer una nueva teoría que postula que la vida no sería el resultado de un acto isócrono (una sola vez) sino de un proceso diacrónico derivado del bombardeo incesante de asteroides de hasta 35 km de diámetro que traían en su seno las moléculas orgánicas primarias que derretían los océanos de hielo (de hasta 250 m de espesor) y en donde la temperatura del planeta en las partes secas no era superior a 40 grados C. El hielo se habría derretido y recongelado sucesivamente cada cien mil años y en algún momento, la vida que comenzaba y se perdía, persistió por un proceso de auto - duplicación que tuvo éxito, cuando las condiciones lo permitieron; pero igualmente la caída de asteroides habría aniquilado formas de vida ya evolucionada, como es el caso de la desaparición de los dinosauros hace 65 millones de años.

VIDA EXTRATERRESTRE

En la década de los ochenta y noventa se han propuesto hipotéticas variables a la vida conocida con base en el sustrato de la química del carbón. Estas variables y sus hábitats probables serían:

1. Vida con base en la química del carbón pero con morfologías aplicables a condiciones diferentes a las de la tierra (hábitats: internos y superficiales en planetas);
2. Vida con base en formaciones químicas a base de silicon (hábitat: planetas) ;
3. Vida en la forma de una “nube” formada con base en la química del carbón organizada y pensante que recibe alimento y energía de la radiación de las estrellas (hábitat: planetas);
4. Vida existente en retículos cristalinos cuya existencia es debida a la combinación de vibraciones y que tiene capacidad de mantenerse por transformaciones de la energía mecánica que los origina (hábitat: interior de planetas, estrellas neutrónicas y enanas blancas);
5. Vida formada con base en combinaciones de partículas elementales sostenidas por la fuerza nuclear (hábitat: superficie de estrellas neutrónicas).

La dificultad de comunicación existente respecto a eventuales civilizaciones extraterrestres cuya vida sea del tipo 1,2 y 3 se originan en las distancias; la dificultad para eventuales formas de vida (y civilizaciones) en los casos 4 y 5 se complica - además - por dos factores: uno que sus mensajes serían de carácter gama - fotónico (en vez del radio - fotónico nuestro); el otro, porque la duración de su vida es de apenas escasos nanosegundos frente a los milenios y millones de nuestra duración.

Como se observa las dos fórmulas de las décadas anteriores han sido fuertemente modificadas conforme avanza el conocimiento y esta es la última fórmula oficial aplicable a la Galaxia Local, debida a Frank Drake, asesor de la NASA:

"Las posibilidades de vida extraterrestre están dadas por la ecuación: [M = fpnefvfifct]; en donde:

local y con estabilidad para albergar vida.
• fp = fracción de esas estrellas con sistema planetario
• ne = Nº de planetas con ecoesfera apta para albergar vida
• fv = fracción de esos planetas en que ha aparecido vida
• fi = fracción de esas diferentes formas de vida en que se ha evolucionado para tener inteligencia y civilización
• fc= fracción de esas civilizaciones tratando de comunicarse con otras
• t = duración en tiempo de esos intentos de comunicación

Cuantificación. - M = 20; fp = 0.5; ne = 1; fv = 0.2; fi = 1, fc = 0.5; t =

Resultado. - Si N = t, los cálculos optimistas van desde 10 millardos optimistas hasta pesimistas: 1 (solo la Tierra)

Muchas otras variables intervienen en las posibilidades y las han estudiado entre otros Carl Sagan; Josef Shklovsky; Fred Hoyle; Freeman Dyson; Nikolai Kardasev; Michael Hard, William Newman, Josep A. Ball; Sebastian Von Hoerner; Pierre Cones; Michael Papagiannis; con posiciones muy disímiles todos ellos, porque sus propuestas son muy especulativas y se mueven exclusivamente en el campo de posibilidades imaginadas solo desde un lugar del Universo con una forma particular de describir lo que se observa y de hacer extrapolaciones en el mismo sentido en que evoluciona la materia en nuestro Planeta.

Las probabilidades de comunicación iniciadas con el proyecto OZMA en 1960, por Frank Drake, hasta los últimos proyectos SETI (USA) y CETI (URSS, 1973 - 1989) y luego Australia (a partir de 1995) se basan en el envío de señales de radio y deben superar los problemas básicos inherentes a:
1) en qué frecuencia escuchar o transmitir;
2) por cuánto tiempo escuchar y por cuánto tiempo transmitir;
3) hacia qué parte del Universo escuchar o transmitir.

Por eso se han propuesto otras ideas; entre ellas la de utilizar el espectro ultravioleta para transmitir señales de nuestra presencia como una manera de señalar nuestra existencia a eventuales civilizaciones; pero esta idea parte de otra especulación: que las civilizaciones primero demuestran su presencia y luego se comunican por radio.

Quizás la fase irónica de Fermi ilustre la barrera a traspasar para una eventual comunicación : ¿Pero dónde están “ellos”...? La contestación no ha llegado aun por parte de la ciencia, sino - únicamente - por parte de los autollamados “omnivólogos”, “exploradores de lo insólito” y otros nombres semejantes; pero eso además de ser más especulativo que los intentos de la ciencia son fenómenos que se ubican en la imaginaría mental, en las ilusiones ópticas, en la ignorancia de las leyes físicas, en la sugestión colectiva y en las expectativas e interrogantes que acompañan el inicio del Tercer Milenio.



¿LA TIERRA EN PELIGRO?

En febrero de 1989, John Grey, Director de Política y Ciencia del Instituto de Aeronáutica de los Estados Unidos de América, anunció por la prensa el inminente peligro de choque de asteorides en el planeta Tierra, causando así una gran polémica científica.

Los impactos de asteroides han marcado la evolución biológica, geológica y climática de la Tierra y se prevé que dentro de varios millones de años caiga uno que extinguirá la vida en el planeta. Así lo indican distintos informes sobre estos proyectiles que llegan de un cinturón situado entre Marte y Júpiter que han regido los destinos del Sistema Solar casi tanto como el Sol y chocan con los planetas con una periodicidad inversamente proporcional a su tamaño. Los más pequeños, con diámetros inferiores a 100 metros, caen sobre la Tierra una vez por siglo y uno de ellos probablemente causó en 1908 el fenómeno de Tungunska, en la taiga siberiana, al estallar a 5 o 10 kilómetros de la superficie, mientras que los exterminadores, de más de 6 kilómetros, impactan cada 70 millones de años causando extinciones masivas como la de los dinosaurios.

En 1990, investigadores chinos han descubierto cerca de la ciudad de Shenyang el que podría ser el mayor meteorito detectado en la superficie terrestre (de 50 a 100 metros de diámetro) mientras que otro de 25 centímetros conmocionó a los círculos científicos de Holanda, al caer sobre una vivienda. Los asteroides son parte de la masa de material original del Sistema Solar que no llegó a concentrarse lo suficiente y a solidificarse para construir los planetas y satélites, y que ahora forman un anillo entre Marte y Júpiter. Hace unos 3.000 millones de años se produjo una gran tormenta meteórica, con cuerpos mayores de 50 kilómetros de diámetro, uno de los cuales estuvo a punto de pulverizar Mercurio, formando el Mar Caloris y, en sus antípodas, una elevación que dio al planeta su forma de pera.

La tormenta amainó pero prosiguieron los chubascos, cuyos impactos en la Tierra rigen los destinos creadores y destructores de nuestro planeta causaron plegamientos geológicos, la extinción de especies y las glaciaciones. Este cinturón meteorítico, con una masa del conjunto de grandes objetos semejante a la de la Luna, seguirá siendo la principal fuente de objetos que chocarán contra los planetas del Sistema Solar, alterando su faz cada cierto número de millones de años (2.5. en promedio). Cada año se aproximan a nuestro planeta, a una distancia menor de 15 millones de kilómetros, más de treinta asteroides “Apollo”, de alrededor de un kilómetro de diámetro y detectables por los actuales telescopios.

La última aproximación importante de un Apollo” a la Tierra, fue la del objeto denominado "1990 MF", que pasó a sólo 5 millones de kilómetros, mientras que otros han pasado a una distancia similar a la que nos separa de la Luna, como el Hermes que en 1937 voló poco más allá del satélite, o el "1989 FC", que en marzo del año 89 se acercó a 600.000 kilómetros de nuestro mundo. La caída de un meteorito de un kilómetro de diámetro cuya periodicidad media es de uno cada 100.000 años, puede destruir el 30 por ciento de la biomasa y el 10 por ciento de las especies, debido a los cambios climáticos. Cada 2 y 3 millones de años pueden caer asteroides de 3 a 4 kilómetros de diámetro que afectarán la litosfera y el manto terrestre, produciendo la extinción de hasta un 70 por ciento de las especies, así como la acumulación de CO2 y la inversión local del campo magnético.

Dos de estos asteroides amenazadores se acercaron a la Tierra en 1989 y 1990, y ahora lo hacen el 2201 Oljato; 2102 Tántalus; 2100 Ra Shalom; 1981 Midas y 1620 Geographos, entre otros. También se aproximan los “grandes exterminadores”, cuerpos de más de 6 kilómetros de diámetro, capaces de cambiar la faz de la Tierra e imponer un nuevo orden geológico, biológico y climático, como el último gran impacto de hace 67 millones de años. El más peligroso es el 1989 A?C?, que se aproxima a unos cientos de miles de kilómetros de la órbita terrestre y podría chocar con el mundo, causando enormes temperaturas y plegamientos geológicos.

Estos planteamientos geológicos que se podrían denominar "impactistas" "catastrofistas", están evolucionando las bases de la ciencia y creando una polémica entre los geólogos, físicos y astrónomos. Si la humanidad no puede remediar este problema mediante sus avances tecnológicos y científicos, dentro de los próximos mil siglos caerá sobre la Tierra un proyectil capaz de modificar su evolución, hasta que dentro de otros millones de años se produzca un nuevo impacto que cambie de nuevo su faz.

Las hipótesis en que se fundamentan todas las ideas de destrucciones cíclicas masivas se han fundido en la denominada “Teoría Shiva”, nombre que le fuera dado - independientemente - por Houkan Smith de la Universidad de Texas en Austin y por Jay Gould de la Universidad de Harvard en rememoración del dios hindú de la destrucción y el renacimiento. La teoría consiste en cuatro hipótesis ligadas entre sí:

1) La gran extinción ocurrida hace 65 millones de años que destruyó muchas formas de vida en la Tierra, incluyendo los dinosaurios, fue el resultado del choque de un asteroide o de un cometa contra la Tierra.

2) Los extinciones masivas - como esa - ocurren periódicamente cada 26 - 36 millones de años por la misma causa.

3) Aunque en la actualidad no hay aparentemente causa para preocuparse debe establecerse una vigilancia preventiva fuera de la Tierra para una explicación razonable de los puntos 1 y 2 y debe hacerse respecto a los trillones de cometas que orbitan la Tierra cada uno de ellos potencialmente capaces de colidir con ella.

La explicación acerca de que es lo que impulsaría a estos cometas para colidir con la Tierra (y otros planetas del Sistema Solar en diferentes épocas), se debe a dos posibles causas:
a) La presencia de una estrella compañera del Sol (llamada Némesis por los cosmólogos) que se mueve en una órbita elongada alrededor del “centro de masa” del Sistema Solar. Némesis causa perturbación a las órbitas de los cometas y les saca de ellas impulsándoles a estrellarse contra la Tierra (a veces) o en contra de otros planetas;
b) El encuentro periódico del Sistema Solar con una Gran Nube Interestelar.

A juicio del astrónomo Donald Goldsmith de la Universidad de Berkley: “la hipótesis Shiva relaciona el trabajo de muchas disciplinas científicas, en particular: Geología, Geofísica, Paleontología y Astronomía y obliga a un serio debate entre estas para aceptar o rechazar la hipótesis”. El propio Goldsmith en su obra “Némesis” publicada en noviembre de 1986, hace un recuento científico de condiciones a favor o en contra de la teoría.

En 1995 se formula otra teoría por parte de los astrónomos Duke Dones (Canadá) y Scott Terraine (EUA) que señala que la suave rotación terrestre es debida a colisiones con meteoros gigantescos y que de no haber ocurrido harían que el eje de rotación este - oeste, fuera en sentido contrario (Venus, por ejemplo, o Urano que rota lateralmente). Las fuentes de meteoros (objetos grandes) y de meteoritos (desde microscópicos hasta varios centímetros, cuya penetración en la atmósfera o su caída aportan unas 20 toneladas de material al año), son los restos de cometas (provenientes de órbitas elongadas entre Plutón y el Sol, o de la Nube de Ort, más allá de Plutón); o asteroides (ubicados entre Marte y Júpiter o circundando la Tierra); o hasta planetoides (hay registrados unos 6000 de los cuales al menos 500 pueden chocar con nuestro planeta).

Una variante a la hipótesis de Némesis, lanzada a principios de 1996 por científicos de la Universidad de Carolina del Sur afirma que: “...los dinosauros pueden haber muerto como consecuencia de un cáncer causado por partículas originadas en las estrellas en la última fase de su vida, hace 67 millones de años. Según la teoría, las partículas subatómicas llamadas “neutrinos” liberadas por las estrellas pudieron haber penetrado en nuestra galaxia, produciendo un tipo de cáncer que afectó a los animales prehistóricos. Al chocar con el núcleo de los átomos de los seres vivientes los neutrinos podrían haber modificado el ADN, provocando mutaciones cancerígenas”.

En 1994 el tema cobra relevancia con la caída de un meteoro en Canadá (provocó un terremoto de 3.4 en la escala Ritcher). También caen 21 fragmentos (1 km de diámetro cada uno) del cometa Levy - Schoemaker en 1995 en Júpiter. LLama la atención que la historia moderna registra realmente pocos impactos importantes (Tunguska en la Siberia en 1908, Canadá en 1994) e impactos de objetos pequeños sobre vehículos (uno en EUA en 1993 y otro en España en 1995). En los cuatro casos no ha habido víctimas humanas. Asimismo en 1994 se detectó el planetoide "1994 ES1" cuando pasó a tan solo 160 mil kilómetros de distancia de la Tierra (mitad de la distancia Tierra - Luna),lo que da lugar a la emergencia e una disciplina astronómica encargada de la vigilancia de estos cuerpos para evitar eventuales colisiones con nuestro planeta.

¿TRAGADORES DE ESTRELLAS?

En julio de 1989 astrónomos británicos dieron a conocer que habían descubierto 13 gigantescos objetos traga - estrellas en los bordes del Universo, tan poderosos que consumen el equivalente a mil millones de estrellas por año. El astrónomo Michael Irwin, del Instituto de Astronomía de Gran Bretaña, de Cambridge, dijo que los objetos, conocidos como quásares, podrían ser agujeros negros formados por galaxias que se condensaron en los orígenes de la creación del Universo. Los quásares están tan lejos, que su luz demora más de 13.000 millones de años en llegar a la Tierra.

En consecuencia, aportan una ventana hacia lo que era el Universo mil millones de años después de la creación. Usando el telescopio Schmidt de Siding Spring, en Nueva Gales del Sur, 500 kilómetros al noroeste de Sidney, el equipo de Irwin identificó desde 1987, dos tercios de los 30 quásares más lejanos. A su juicio, la mayoría de los quásares parecen haberse formado más o menos al mismo tiempo que las galaxias, o grupos de soles, pero que por alguna razón produjeron un gran agujero negro en el medio, que absorbió toda la materia y comenzó a emitir radiaciones

Seis meses después, se da a conocer públicamente que una masa gigantesca de materia oscura, la cual obra como un poderoso imán que atrae a las galaxias, ha sido “detectada” a ciento cincuenta millones de años - luz de la Vía Láctea (es decir, de nuestra galaxia). Esta masa oscura, denominada por los astrofísicos “Imán”, es un área del Cosmos más o menos esférica, de unos doscientos cincuenta millones de años - luz de diámetro y se observa entre las estrellas de las constelaciones australes de Hydra, Centauro, Pavo e Indio.

La masa de “Imán” equivale a treinta millones de millardosde veces la masa del Sol y posiblemente esté compuesta por un gran número de galaxias, las cuales conforman un conjunto homogéneo. Según el astrofísico francés Alan Dressler, su equipo científico descubrió esta gigantesca estructura celeste “atratora de galaxias, gracias a un planificado plan de trabajo, realizado desde 1987, con la finalidad de respaldar o rechazar la Ley de Hubble. El descubrimiento de "Imán" constata la Ley de Hubble y confirma que nuestro Universo se está expandiendo en cada instante de su existencia.

Los astrofísicos han señalado que hay una zona más densa que las regiones del espacio que la rodean y según los astrónomos norteamericanos Hoffman y Zurek, del Laboratorio Físico de Los Alamos (USA), esa masa podría estar formada por la materia cósmica primordial, de una densidad y energía jamás detectadas por los instrumentos convencionales, usados hasta el momento. Hasta ahora nadie ha visto a “Imán”, pues dicha región “surgió” en el trabajo de las computadoras y en cálculos matemáticos para detectarlo, determinar su diámetro, masa y otras características físicas, con base en observaciones realizadas de los objetos celestes visibles a su alrededor, es decir, de los inmensos “nidos” de galaxias fotografiadas con los grandes telescopios reflectores situados en Australia, Argentina y los Andes chilenos.

Algunos astrofísicos franceses no apoyan a su colega Dressler. Según el físico y astrónomo Pascal Fourqué, la existencia y localización de “Imán” debería considerarse sólo en el terreno de las hipótesis, pues “nada permite una conclusión clara y definitiva”. A partir de 1987, Dressler y su grupo han podido demostrar la existencia de dicha masa gracias a doscientas cincuenta nuevas mediciones, desde varios puntos de la enorme masa de materia y usando día a día métodos de cálculo computacional más rápidos y perfeccionados. Gracias a los mismos, se tiene una visión en conjunto de dicha región cósmica y el camino está siendo “abonado” para demostrar definitivamente la existencia de dicho gran “atractor” cósmico.

Algunos meses antes, un grupo de astrónomos y astrofísicos australianos habían descubierto, la primera prueba real del fenómeno físico conocido como “Cordones Cósmicos”, cuyo conocimiento podría revolucionar las leyes de la astrofísica convencional. Según Don Mathewson y su equipo de investigadores del Observatorio Astrofísico de Siding Springs y del Radio Observatorio de Parkers (Australia), estos “Cordones Cósmicos” se formaron apenas un segundo después del nacimiento del Universo.

Al apoyar al astrofísico francés Alan Dressler, afirman que esos “tragagalaxias” son ópticamente invisibles y arrastran cerca de sí a las galaxias a una velocidad de mil quinientos kilómetros por segundo. Ellos han medido la velocidad de atracción de mil quinientas galaxias y detectaron los límites de “Imán”, coincidiendo con las mediciones realizadas por el equipo francés. Ambas escuelas han llegado a una misma conclusión: ese gran atractor llamado “Imán” ha sido señalado por otros astrofísicos como uno de tales “Cordones Cósmicos”

A principios de 1988, varios grupos de trabajo de Cambridge y Greenwich señalaron la existencia de “una fuerza misteriosa” que absorbe a la Vía Láctea a la increíble velocidad de cuatrocientos kilómetros por segundo. Según estos astrofísicos, la Vía Láctea no se desplaza en el espacio en “línea recta”, sino está siendo empujada hacia una gigantesca concentración de masa. Ellos llamaron a dicho fenómeno “El Gran Atractor” y señalaron que también así están siendo atraídas las galaxias que forman el llamado “grupo local”.

¿EXTINCIONES POR CAMBIOS CLIMATICOS ?

En agosto de 1990, un artículo de divulgación del Centro Nacional de Investigación Científica de Francia (CNRC) informa que la Tierra sería similar a un sistema integrado, en el cual todos los fenómenos geológicos estarían relacionados entre sí. Los efectos de tales fenómenos podrían explicar los misterios biológicos hasta el momento insolubles. Tal la visión de nuestro planeta surgida de una nueva teoría geocientífica que explica que las fluctuaciones marina y climáticas al campo magnético serían variables según ritmos caracterizados por cierta regularidad. Las variaciones ocurrirían cada 70 millones de años aproximadamente y tendrían profundas consecuencias en las condiciones ambientales y biológicas. Se explicarían así las extinciones masivas, por ejemplo la de los dinosaurios, que repetidamente interesaron a la historia biológica terrestre.

El estudio de los anillos de crecimiento de los corales fósiles acabó con convencer a los científicos de que la Tierra experimenta intensas variaciones en su equilibrio. Dicho estudio hizo saber, por otra parte, que el número de días del año terrestre no siempre han sido de la misma duración en todas las épocas. Los corales crecen durante el día, cuando están expuestos a la luz del Sol. De noche interrumpen su crecimiento y forman una especie de anillo al concluir la parte crecida. Los expertos determinaron así que el número de los días del año sufrió variaciones en distintas oportunidades.

Esto sugiere la hipótesis de un cambio en la velocidad de rotación de la Tierra. Los efectos de estos cambios serían múltiples: en los momentos de “aceleración”, la Tierra tendería a comprimirse en los polos y a ensancharse en el Ecuador, provocando un aumento de la temperatura, un alza del nivel del mar y una mejora del clima. En los períodos de rotación más lenta, en cambio, retomaría su forma originaria: los polos se alejarían y el clima sería peor. Haría mucho frío y se originarían fenómenos de glaciación, con un retiro progresivo de los mares y grandes extinciones masivas.

Estos cambios serían por lo menos doce en el curso de los últimos 600 millones de años y se habrían verificado justamente en los momentos de pasaje entre las dos situaciones descritas. La más famosa es la de los dinosaurios, que ocurrió hace 60 - 70 millones de años. Junto a los grandes reptiles desaparecieron otras especies vivientes, todas en la plenitud de su expansión biológica. Para explicar este misterio hasta el momento se habían lanzado varias hipótesis catastróficas basadas en la tesis cíclica conocida como “Teoría Shiva”, en recuerdo a la diosa hindú de la destrucción y estas comprenden desde la explosión de una estrellas cercana al Sol, a violentas erupciones volcánicas que habrían alterado las condiciones climáticas. Pero, si se acepta la nueva teoría geológica, la visión catastrófica de las grandes extinciones entra en crisis: los dinosaurios, por ejemplo, habrían desaparecido por el natural pasaje de la Tierra de una fase a otra de su expansión, con los consiguientes cambios climáticos.

Las implicaciones de la nueva teoría no acaban aquí: presentando nuestro planeta como un sistema en continua evolución, también se pone en crisis a los actuales modelos matemáticos de la geofísica, que ven la Tierra como algo estático. Los grandes fenómenos geológicos, en síntesis, no se habrían debido al choque entre enormes masas sólidas navegando en un magma inferior, sino al pasaje de la forma contenida de la Tierra a la de su máxima extensión.

La historia de la vida sobre la Tierra está repleta de catástrofes de magnitud diversa. La que mayor atención ha captado es la que produjo la extinción de los dinosaurios y de otros organismos, hasta llegar a la mitad de todas las especies, hace unos 67 millones de años (entre los períodos Cretácico y Terciario). A pesar de su magnitud, palidece cuando se la compara con el mayor desastre de todos, la extinción generalizada que se produjo a finales del período Pérmico, hace unos 250 millones de años. Su lista de bajas es realmente asombrosa. De los océanos desaparecieron alrededor del noventa por ciento de todas las especies durante los últimos millones de años del Pérmico. En tierra, se esfumaron más de los dos tercios de familias de reptiles y anfibios; escaparon a la destrucción el treinta por ciento de los órdenes de insectos, siendo la única vez que han sufrido una extinción de esta magnitud.

Sin embargo, en 1989 señala el biólogo norteamericano Douglas H Erwin que de las catástrofes surgen las oportunidades por estas razones:

1.- Durante varios cientos de millones de años previos a los acontecimientos de finales del Pérmico los mares habían estado dominados por formas de vida prácticamente inmóviles. La mayoría de los animales marinos descansaban sobre el fondo del mar o se fijaban a él mediante pedúnculos y filtraban el agua para conseguir alimento o esperaban a las presas. La extinción permitió que muchos grupos que antes tenían poca importancia (los parientes activos y depredadores de los peces, calamares, caracoles y cangrejos de hoy en día) pudieran expandirse, al tiempo que aparecieron algunas estirpes completamente nuevas. Esa reorganización ecológica fue tan espectacular que constituye una línea divisoria fundamental en la historia de la vida. No solo señala el límite entre los períodos Pérmico y Triásico, sino que también establece el final de la era Paleozoica y el inicio de la Mesozoica.

2.- Son muy abundantes los datos, nuevos y estimulantes, que las diversas ciencias de la Tierra han ido aportando en los últimos años sobre las causas y las consecuencias de este fenómeno, como estudios detallados de cambios rápidos en la química del océano, documentación más completa de las pautas de extinción y nuevos análisis que demuestran que en la frontera permotriásica tuvieron lugar grandes erupciones volcánicas. ¿En qué medida contribuyen las extinciones generalizadas a la evolución de un grupo, en comparación con las tendencias adaptativas a largo plazo? Por ejemplo, los erizos de mar son ubicuos en los océanos modernos, pero eran relativamente raros durante el Pérmico. Hay un único género que se sepa con seguridad que sobreviviese a la extinción. Miocidaris. ¿Lo hizo por puro azar o se hallaba mejor adaptado? ¿Serían distintos los erizos de mar actuales si no hubiera sido por la extinción de finales del Pérmico?

3.- Los océanos del Pérmico experimentaron una compleja pauta de vida y muerte en un intervalo breve en términos geológicos. La cuantificación detallada de la desaparición, según la taxonomía de órdenes, familias, géneros y especies, resulta difícil. En términos generales se considera que fueron aniquilados el cuarenta y nueve por ciento de las familias y el setenta y dos por ciento de los géneros. Como la identificación de las especies es más difícil concretar su pérdida es bastante más arduo, por lo que se han realizado diversas estimaciones que van desde el 80% hasta el 95%. A modo de comparación, el evento que tuvo lugar al final del período Ordovícico, hace 439 millones de años, eliminó al 57 por ciento de los géneros marinos. La extinción del Cretácico-Terciario, que hizo desaparecer a los dinosaurios, se llevó al 47 por ciento de los géneros entonces existentes. La devastación de finales del Pérmico afectó mucho más a unos animales que a otros. Los grupos que más sufrieron fueron los que vivían fijos al fondo marino y para alimentarse filtraban material orgánico del agua.

4.- Las cosas no fueron mucho mejor en tierra. Tanto los vertebrados terrestres como los insectos experimentaron pérdidas importantes. Entre los vertebrados, el 78 por ciento de las familias de reptiles y el 67 por ciento de las de anfibios desaparecieron durante el Pérmico tardío, aunque sigue siendo objeto de debate la rapidez con que ello sucediera. Estudios previos de los magníficos fósiles que se encuentran en la región de Karroo, en Sudáfrica, llevan a la conclusión de que la caída tuvo lugar a lo largo de varios millones de años, quizá con dos picos en la tasa de extinción, aunque no faltan trabajos más recientes que apoyan un ritmo más rápido, parecido al de la extinción marina.

5.- La extinción de las especies de insectos señala una transformación importante de la fauna. De los 27 órdenes de insectos conocidos del Pérmico, ocho se extinguieron cerca de la frontera permotriásica, cuatro sufrieron una grave diezma, pero se recuperaron, y otros tres apenas sobrevivieron durante el Triásico antes de extinguirse. Este es el único acontecimiento de extinción importante sufrido por los insectos de que se tenga noticia, lo que atestigua la rigurosidad ambiental de aquella época. También la flora terrestre sufrió, aunque no pueda decirse en qué grado, pues de momento no se dispone de datos acordes con la magnitud.

6.- ¿Qué fue lo que pudo haber causado esta pérdida de vida tan generalizada? Prácticamente la única cosa que no ocurrió, o al menos de la que no se tienen pruebas, fue un impacto extraterrestre, acontecimiento que con toda probabilidad causó la extinción de los dinosaurios. Hubo un grupo de paleontólogos que afirmó haber encontrado diminutas trazas de iridio, un indicador decisivo de una colisión, en el estrato que constituye la transición Pérmico-Triásico en el sur de China. Esto fue a mediados de los años ochenta y, a pesar de los muchos intentos realizados, nadie ha podido confirmarlo.

7.- ¿Acaso el vulcanismo generalizado fue lo que purificó la Tierra durante el Pérmico tardío? Las erupciones tienen una serie de efectos a corto plazo, entre los que se encuentran el enfriamiento climático, debido al polvo y a los sulfatos eyectados a la estratosfera, la lluvia ácida, los incendios destructivos, la liberación de elementos traza peligrosos y un aumento de la radiación ultravioleta como consecuencia de la reducción de la capa de ozono. En una escala de tiempo más amplia, el dióxido de carbono emitido puede conducir el caldeamiento.

8.- El daño ambiental producido por una erupción depende además de varios factores. Muchos efectos volcánicos, como la cantidad de sulfato expulsado a la estratosfera, son difíciles de inferir respecto de erupciones que tuvieron lugar hace 250 millones de años. Es pues probable que las erupciones volcánicas tuviesen participación en las extinciones, pero solo como parte de un proceso más complejo. Las pruebas recientes más sugestivas proceden del campo de la geoquímica. Es posible que los cambios bioquímicos más relevantes sean las variaciones de los isótopos de carbono de las rocas (específicamente, la relación entre carbono 12 y carbono 13). Este hecho indica que, aparentemente, durante el Pérmico tardío se estaba enterrando más materia orgánica que en épocas anteriores.

9.- Aunque parece que esta acumulación de carbono nos está diciendo algo sobre los cambios geoquímicos durante la extinción de finales del Pérmico, no está muy claro lo que sea. Puede que tenga que ver con el descenso súbito y mortífero del nivel del mar. Durante el Pérmico temprano, los continentes se fusionaron para formar un supercontinente único: Pangea. Alrededor de las plataformas continentales medraban los arrecifes y otras comunidades de aguas someras. Después, hacia el final del Pérmico, el nivel del mar descendió. (Nadie sabe exactamente el porqué, pero pudo haberse debido a cambios del manto terrestre que agrandaron las cuencas oceánicas).

10.-La caída desbarató los ambientes costeros. Con la mayor parte de la plataforma continental de Pangea al descubierto, es probable que tuviera lugar una mayor erosión y que se produjese mayor oxidación de materia orgánica. Esta oxidación reduciría el oxígeno disponible y aumentaría el dióxido de carbono de la atmósfera, lo que pudo haber humidificado el planeta, caldeándolo del orden de hasta dos grados Celsius. El desastre se repitió cuando los niveles del mar volvieron a subir, quizá varios cientos de miles de años de años después. Las aguas oceánicas en ascenso sumergieron las zonas litorales y penetraron hacia el interior. Es indudable que tales intrusiones hubieron de eliminar muchas comunidades costeras.

11.- Estas circunstancias hostiles pudieron verse exacerbadas por la disponibilidad de cantidades cada vez menores de oxígeno atmosférico. En los océanos se disolvería menos oxígeno, lo que habría provocado anoxia, que habría ahogado a algunos organismos marinos. Hay pruebas de aguas anóxicas en determinadas anomalías geoquímicas. Varios investigadores han formulado una teoría atractiva, pero no totalmente convincente, según la cual las diferentes pautas de extinción entre especies reflejarían la capacidad de resistencia de los organismos a la anoxia.

12.- ¿Qué fue lo que causó realmente las extinciones? Quizá no haya una única explicación; pudieran haber contribuido todas las posibilidades mencionadas. Ninguna de ellas por sí sola habría causado una extinción de tal magnitud, pero las exquisitas faunas del Pérmico tuvieron la mala suerte de que todas ellas ejercieran sus efectos aproximadamente por la misma época.

13.- La extinción tuvo tres fases, en opinión de Erwin: La primera empezó con la caída del nivel del mar circundante de Pangea, lo que llevó a la pérdida de espacios habitables, a la inestabilidad climática y a la eliminación de muchas especies de distribución restringida. A medida que la regresión oceánica continuaba, empezó la fase dos, con erupciones volcánicas y la emisión a la atmósfera de grandes volúmenes de dióxido de carbono, lo que aumentó la inestabilidad climática y facilitó el derrumbe ecológico. El aumento posterior del nivel de mar, y las inundaciones subsiguientes de agua posiblemente anóxicas, a finales del Pérmico y en el Triásico temprano iniciaron la tercera fase, que destruyó los ambientes terrestres cercanos a las costas y contribuyó a la extinción de muchos taxones supervivientes.

14.- Las consecuencias de este acontecimiento son al menos tan interesantes como él mismo. Tras otras extinciones generalizadas la vida comenzó a recuperarse en el intervalo aproximado de un millón de años, pero en este caso se requirieron quizá cinco millones de años. Como las comunidades biológicas se habían visto tan gravemente afectadas, se precisaron millones de años para que se volvieran a formar y proliferaran. (También cabe la posibilidad de que la recuperación parezca más larga de lo que realmente fue por la mala conservación de los fósiles).

15.- Poco después de la extinción, durante lo que se ha llamado el estadio de supervivencia del Triásico temprano, las pocas especies que quedaban tendieron a ser abundantes y a hallarse ampliamente distribuidas. Los detalles de los cambios evolutivos que se produjeron en tierra firme durante este período son todavía algo incompletos, porque no se han recogido fósiles de manera sistemática, yacimiento a yacimiento, si bien los estudios previstos prometen aumentar nuestro conocimiento de las extinciones terrestres. Se sabe que varios grupos de reptiles y de anfibios desaparecieron. También que los insectos pasaron de estar formados por unos cuantos grupos parecidos a libélulas, dotados de alas fijas en la posición de vuelo que no podían doblar sobre el cuerpo, a formas con alas plegables. Estos nuevos insectos, que suponen el noventa y ocho por ciento de los actuales, también tenían estadios larvarios y adultos separados. Todas estas adaptaciones puede que reflejen facultades para explotar nuevos ambientes y para soportar las oscilaciones estacionales extremas y otras inestabilidades climáticas.

16.- Los cambios producidos entre los insectos plantean la cuestión general de si las especies que consiguieron atravesar el Pérmico poseían adaptaciones específicas que les permitieron sobrevivir o si su supervivencia fue más aleatoria. Por desgracia es casi imposible decidir si la extinción permotriásica constituyó una selección de determinadas características. Puede que todos los equinoideos modernos hubieran desarrollado placas en dos columnas, aunque tal extinción no hubiera ocurrido nunca. Y puede que la fauna superviviente consista simplemente en los grupos que eran más abundantes y que estaban más ampliamente distribuidos antes de la extinción, por lo que tenían más probabilidades de sobrevivir. Resulta extraordinariamente difícil decantarse entre estas dos posibilidades. Lo único que se puede decir con seguridad es que la extinción generalizada de finales del Pérmico tuvo sobre la historia de la vida el mayor efecto que haya tenido acontecimiento alguno desde la aparición de los animales complejos.

La pregunta que surge es : será posible que vuelva a producirse una catástrofe como la ocurrido en la Era pérmica…?

¿EL PLANETA SE ENFRIA O SE CALIENTA?

En setiembre de 1990 en un artículo publicado en la revista “Science” que se divulgó por la prensa se afirma que un nuevo estudio de las temperaturas mundiales, basado en datos de satélites metereológicos, no ha hallado evidencia de una tendencia de calentamiento o enfriamiento a largo plazo durante la década de 1979 a 1988. La información revela que en lugar de una tendencia de calentamiento o enfriamiento continuo, la información recopilada mostró una aparente tendencia a cambiar al azar de un año a otro. Sin embargo, agrega que tomará por lo menos otra década de datos por satélites al llegar a una conclusión firme al respecto. El informe señala que la información demostró que la temperatura de la Tierra puede medirse con mucha mayor precisión con instrumentos que estudian la atmósfera desde el espacio que, a través de los sistemas basados en la Tierra, y estos serán extremadamente valiosos para mejorar el entendimiento y la predicción de los cambios climáticos.

Los investigadores de la NASA y de la Universidad de Alabama que llevaron a cabo el estudio señalaron que la información fue recogida por una serie de satélites metereológicos lanzados en la atmósfera superior a fines de 1978 por la Administración Nacional de Asuntos Oceánicos y Atmosféricos de Estados Unidos (NOAA). Los científicos estudiaron mensualmente las variaciones en temperatura en todo el mundo, llegando a una precisión media de 0,01 grados centígrados, lo que estableció una norma frontalmente a la cual se medirán la futuras tendencias en temperaturas.

La mayor parte de otros estudios sobre tendencias en temperaturas, algunos de los cuales alcanzan a más de un siglo, han provenido de las cifras en termómetros en la Tierra. Los científicos dijeron que estas cifras no reflejan plenamente las temperaturas mundiales porque éstas están limitadas en gran medida a las áreas pobladas, lo que deja esencialmente sin medir la atmósfera sobre los océanos y las vastas regiones desérticas y boscosas del mundo. La información utilizada anteriormente para apoyar las alegaciones de un calentamiento mundial ha procedido de temperaturas medidas con éstos termómetros en la superficie de la Tierra.

Los satélites del estudio estaban equipados con aparatos desarrollados por la NASA que podían mediar la radiación de las microondas causada por el calor de los 10 kilómetros más bajos de la atmósfera sobre la mayor parte de la Tierra, área en la que, según predicen los científicos, aparecerán los primeros indicios de un calentamiento mundial. “Hallamos que la atmósfera de la Tierra atraviesa cambios en temperatura bastante grande de un año a otro, y a través del período de diez años no vimos ninguna tendencia de calentamiento o enfriamiento a largo plazo”, según el científico Roy Spencer y de acuerdo con John Christy, dijo que hubo dramáticas fluctuaciones de temperatura durante el decenio, pero que en el mundo en general estos cambios tendían a nivelarse.

El estudio halló, sobre una base mundial, que los años más cálidos en orden descendente fueron 1987, 1983 y 1980. Los años de 1984, 1985 y 1986 fueron los más fríos de la década. La temperatura media de los primeros cinco años - 1979 a 1983 - fue más cálida que en los cinco años más recientes de la década estudiada. Los investigadores dijeron que los acontecimientos más dramáticos registrados por los satélites fueron los fenómenos de El Niño en 1983 y 1987, cuando aguas extraordinariamente cálidas del Océano Pacífico tropical afectaron las condiciones climáticas en todo el mundo. Se cree que cambios similares han contribuido a la sequía de 1988 en Estados Unidos.

Los dos acontecimientos de El Niño ocasionaron que las temperaturas mundiales aumentaron más en uno a pocos meses de lo que podría pronosticarse de las varias décadas de mayor calentamiento por el efecto de invernadero. Sin embargo aún no puede decirse nada concluyente sobre la validez de ninguna de las tendencias de calentamiento a largo plano observadas por los termómetros en la Tierra antes de 1999, debido a los relativamente escasos datos proporcionados por los satélites. Algunos expertos dicen que la Tierra está comenzando a calentarse como resultado del bióxido de carbono que ha penetrado en la atmósfera procedente de la quema de combustibles fósiles durante el siglo pasado. Este calentamiento, conocido por el efecto de invernadero, es una cuestión controvertida debido a la dificultad de medir las tendencias climáticas durante un período de tiempo prolongado.

En los años siguientes los estudios pueden demuestrar la multiplicidad de factores incidentes en la producción del fenómeno de cambios climatológicos, dado que si la corriente de agua cálida superficial que se dirige hacia costas de América del Sur, también lo hace en el Pacífico Oeste, en el Atlántico Ecuatorial y en el Océano Indico, y su calentamiento aumenta la evaporación, formándose nubes que alteran - radicalmente - la precipitación de lluvias en diversas partes del Globo. Sin embargo El Niño es, a su vez, el resultado de la formación y acumulación de masas de aire de gran presión (“Oscilación del Sur) sobre el Pacífico Oeste.

Este fenómeno, puede, a su vez, ser la resultante de la combinación de factores externos, entre ellos: modificaciones en el eje de rotación terrestre; efectos acumulados por la caída de material extra terrestre (cada año caen sobre la Tierra unas 20 toneladas de partículas); el distanciamiento lento - pero paulatino de la Luna respecto de la Tierra (actualmente de 384.400 +2-3 cms, y que llegará a provocar en varios millones de años la pérdida de la Luna como satélite); y el error en el cálculo de la capacidad de reflejo de la luz solar por parte de las nubes (se estima en 6 vatios por metro cuadrado, cuando parece ser que su valor real es de 25 vatios por metro cuadrado); y la necesidad de determinar la verdadera forma de la Tierra (al respecto se ha ideado una proyección geométrica "geoide", en forma de pera que se asemeja más a la forma de nuestro planeta).

Aun no asoma su rostro una nueva explicación que si bien es todavía debatida en muchos círculos científicos, tiene un enorme impacto para toda la humanidad. Es el problema que plantea que el cambio climático acelerado que comienza a experimentarse a los inicios del Tercer milenio tiene como responsable directo al ser humano por el uso masivo e indiscriminado de fuentes energéticas de origen orgánico ,así como por factores concomitantes: el uso de la energía nuclear y la utilización masiva de armamento de alto poder explosivo.

¿TEORIAS GALACTICAS ERRADAS?

En enero de 1991, un importante estudio sobre el espacio que se publicó en la revista "Nature", por parte de Will Saunders de la Universidad de Oxford, obligó a los astrónomos a revisar los resultados de sus estudios a través de computadoras al revelar aparentemente que todas las teorías vigentes sobre la formación de las galaxias están profundamente erradas.

Un grupo de astrónomos de Gran Bretaña y Canadá elaboraron un mapa con más de 2.000 galaxias, algunas de las cuales se encuentran a más de 450 millones de años luz de la Tierra, para producir el cuadro más completo de los que existen hasta el momento sobre el área del Universo cercano a nuestro planeta. El resultado demuestra que ningún modelo sobre la formación de galaxias que se han desarrollado puede explicar la existencia de grandes conjuntos galácticos y los vacíos que los separan.(incluyendo 15.000 galaxias)

El estudio se elaboró sobre la base de los datos que transmitió el Satélite Astronómico Infrarrojo,(IRAS) que verificó más de unos cuatro millones de objetos al promediar la década de 1980.

El director asociado de Nature, David Lindley, dijo que la tarea desarrollada por el IRAS era la más profunda investigación del cielo realizado hasta la actualidad. El equipo de astrónomos que analizó los informes del estudio dijo que el número y el tamaño de las estructuras que reveló el satélite superan los vaticinios de los modelos teóricos del Universo en vigencia.


De acuerdo con el astrofísico Saunders (en 1994), si los valores calculados son correctos, la cantidad de deuterio primordial detectado casaría muy bien con las predicciones ordinarias del modelo B.B.(alrededor de dos bariones por diez mil millones de fotones) Con esta proporción, las predicciones del modelo B.B. concuerdan también con las cantidades de litio que hay en las estrellas más viejas y con las estimaciones del helio primordial existente en las galaxias cercanas, pobres en metales. Que este resultado se confirmase sería una noticia extraordinaria: quedaría a su vez confirmado que los cosmólogos saben qué pasó sólo un segundo después de que el Universo empezara a expandirse. Querría además decir que la historia de la materia a grandes distancia es igual a la de la materia cercana, tal y como se presupone en el modelo más sencillo posible del Universo.

Estas evaluaciones concuerdan de forma razonable con el número de bariones que vemos hoy en el Universo (un átomo por cada diez metros cúbicos de espacio). Esta cifra que coincide con el número de átomos que se cuenta directamente sumando toda la materia que hay en el gas, las estrellas, los planetas y el polvo conocidos, incluidas las nubes que observen la luz de los quásares: no habría, pues, bariones que no se hayan observado. Pero la observación enseña que la explicación de las características gravitatorias de las galaxias y de sus halos requiere una cantidad enorme de materia oscura, por lo menos diez veces la densidad media de los bariones visibles. La elevada concentración de deuterio que arrojan los cálculos indican -en consecuencia- que esa masa no está hecha de materia ordinaria.

Se han propuesto muchas formas no bariónicas de materia que podrían aportarla. La teoría del B.B., por ejemplo, predice que en el Universo quedan casi tantos neutrinos como fotones. Si cada uno tuviese siquiera unas milmillonésimas de la masa del protón (unos cuantos electronvolt), en conjunto aportarían al Universo tanta masa como todos los bariones sumados. También es posible que el Universo primitivo creara algún tipo de partícula residual que no se haya podido producir en el laboratorio. Sea como sea, el modelo de la gran explosión, afianzado por la observación, proporciona un marco conceptual a la predicción de las consecuencias astrofísicas de esas nuevas ideas físicas.

El hallazgo de ser confirmado, contradice una teoría denominada modelo de la materia oscura y fría (CDM), como una forma de explicar la razón por la cual la cantidad de materia visible en el Universo es mucho menor que la densidad crítica necesaria para impedir el colapso del Universo. Según la teoría, existe un material desconocido, invisible - materia fría y oscura - que contrariamente a todo lo que existe en la Tierra o el Sol, sólo puede ser identificada por su atracción gravitacional. No obstante, Saunders dijo que el modelo CDM no puede explicar a las estructuras de enorme tamaño cuya existencia es conocida ahora como resultado del nuevo estudio.

¿ DOS LEYES FUNDAMENTALES EN ENTREDICHO ?

A mediados de los ochenta trasciende al público que los físicos se enfrentan a dos propuestas que ponen en entredicho dos bases fundamentales del conocimiento:
a) una en la física clásica: Las leyes de Newton;
b) otra en la física cuántica: el “efecto spin”:

El retador de la primera es el astrofísico israelí, especialista en galaxias, Mordehai Milgram, del Instituto Weizmann, y el de la segunda, Alan D. Krish, físico de partículas de la Universidad de Michigan. Por supuesto que no es inusual la emergencia de teorías rivales, porque precisamente la ciencia avanza gracias a ellos.

Precisamente el fundamento de la ciencia moderna es el principio de la falseabilidad enunciado por Popper, lo que hace que una teoría científica nunca pueda considerarse total y universalmente cierta, dada la imposibilidad de agotar todas las probabilidades de que funcione. Sin embargo, aunque esas sean las reglas de juego no siempre se toman en serio muchas teorías que emergen con la pretensión de explicar mejor, o con más certeza determinados fenómenos, sino que la ciencia se suele aferrar a leyes cuya validez ha resultado cierta en muchas ocasiones.

1.- Ley de Newton errada?.- En el primer caso se trata de que en las galaxias y los cúmulos galácticos la masa que los integra se debe calcular con base en sus movimientos internos (según establecen las leyes de Newton) pero desde 1930, se han ido acumulando dudas acerca de por qué los movimientos internos galácticos arrojan cifras que son sistemáticamente mucho mayores que los datos que se obtienen al tomar en cuenta únicamente la masa visible.

La “masa gravitatoria” que resulta aplicando estrictamente las leyes newtonianas no corresponde a la masa “visible” (en un factor que oscila desde 2 hasta más de 10). A esa masa faltante se ha denominado “materia oculta” u “oscura” y se han formulado varias explicaciones para ubicarla: desde neutrinos y materia hipotética (monopolos magnéticos), hasta agujeros negros, estrellas enanas marrones, material en los halos galácticos, WIMP (partículas frías); CDM y otras.

El resultado de la búsqueda de la materia faltante -que por otra parte es necesaria para predecir si el Universo se contraerá después de la expansión actual, o si se continuará expandiendo, ha sido, hasta el momento, poco satisfactorio y constituye un misterio no resuelto.

Por otra parte, los datos que arrojan las mediciones de la rotación de conjunto de las galaxias debe guardar relaciones determinadas por la atracción gravitatoria de la masa de toda la galaxia y la fuerza centrífuga (para ser altos en el centro galáctico y luego ir disminuyendo hacia la periferia galáctica). Pero en la práctica los datos resultantes no siguen el patrón newtoniano, sino que, de manera sistemática, las curvas que grafican las velocidades son planas.

Para explicar esas curvas planas se recurre a pronosticar la existencia de la masa oculta; pero para Milgran -quien ha estudiado el tema junto con otro físico Beckestein, la solución debe ser otra: se requiere plantear la modificación de las leyes de Newton. Así han esbozado la teoría conocida como MOND (Modified Non Relativistic Dynamics), que plantea cambios a los conceptos de inercia y gravitación newtonianas, sin entrar en consideraciones relativistas.

Las características de MOND serían: a) La modificación es válida solo para pequeñas aceleraciones, de manera que la fuerza gravitatoria no es igual a la suma de las aceleraciones de dos cuerpos en interacción, sino que se requiere introducir un valor constante a; b) No es aditiva por lo que un campo gravitatorio externo modifica la relación entre masa, distancia y aceleración en una galaxia en estudio y; c) si el campo externo es más alto que el umbral de la constante a o, no se pueden medir desviaciones apreciables de lo que pronostica la gravitación newtoniana; esta última situación dificulta la comprobación experimental de la teoría.

La teoría MOND propuesta tiene grandes repercusiones cosmológicas dado que:

a) La constante de Hubble que mide la expansión universal varía con el tiempo cósmico; pero la constante a o coincide con la aceleración de Hq, de lo que se deduce que una partícula sometida a la aceleración a o logra alcanzar la velocidad de la luz en un tiempo que prácticamente coincide con la Edad del Universo;

b) Esta curiosa relación puede explicarse como reveladora de la existencia de una cancelación entre las propiedades y el comportamiento del Universo en su totalidad, y los sistemas pequeños como ocurre con el “Principio de Match”, según la cual la inercia de un cuerpo con masa no depende de sus propiedades intrínsecas, sino que está relacionado íntimamente con la distribución global de la materia en el resto del Universo.

La teoría de la relatividad y la teoría de la mecánica cuántica son el resultado de teorizaciones previas; la teoría MOND es el resultado de las observaciones: la primera modifica las teorías de la dinámica de Newton, cuando las velocidades se acercan a la de la luz; la segunda es una generalización que se aplica cuando los momentos angulares a la escala de Plank son muy pequeños; la tercera se aplica cuando las aceleraciones se hacen pequeñas. Para comprobar la veracidad de la teoría se requiere hacer dos esfuerzos:
a) Hacer las comprobaciones experimentales.
b) Hacer una modificación relativista a MOND, para separar los campos de aplicación así: La teoría MOND, se aplicaría solo a pequeñas aceleraciones; la teoría Relativista se aplicaría a grandes aceleraciones.

2.- Cromodinámica errada?.- En el segundo caso se trata que los componentes subatómicos: protones, neutrones, electrones están dotados, según la teoría, de una propiedad mecánica cuántica fundamental: la rotación sobre sí mismos (spin), así como tienen otras dos propiedades también intrínsecas que les definen: masa y carga eléctrica y cuando se produce la colisión de dos partículas la teoría predice su comportamiento posterior que depende del spin de cada una de ellas y de la manera en que se produce la colisión. Sin embargo, en 1973, por primera vez se efectuó un experimento que consistió en utilizar el sincrotrón para observar el comportamiento de chorros de protones polarizado; el sincrotrón crea un poderoso campo energético, eléctrico y magnético) resultado de la aceleración de protones a altas energías: el protón es forzado a desplazarse en un círculo alrededor de una cámara elisoidad cerrada y al vacío. El campo magnético rodea la cámara perpendicularmente, y puede rotarse para permitir los cambios de polarización de los quarks al interior del protón. En el experimento se observó lo siguiente:

a) Si la polarización de los chorros de protón coinciden con la polarización del “blanco de protones” a ser impartido, ocurren violentas explosiones; pero si las direcciones del spin en los chorros de protones lanzados están en una dirección contraria al spin de los “protones blanco”, no se mezclan, ni interactúan.

b) Dado que esta primera experiencia se efectuó con el sincrotrón a 13. GeV de energía, se esperó 6 años para aumentar la energía a 18.5 GeV y se repitió el experimento y se encontró que al aumentar la energía de colisión el “efecto spin” comienza a sufrir modificaciones y a más alta energía el efecto es francamente pronunciado, lo que permitía concluir que si la intrínseca la propiedad de rotación no debía fluctuar, salvo que hubiese un error en la teoría cromodinámica. La teoría cromodinámica establece que el protón debe sus características intrínsecas: spin, masa y carga eléctrica -a su vez- a las características del triplete de quarks (sostenidas por la fuerza nuclear electrofuerte) que lo integran y por lo tanto el spin es un dato no variable, por ser intrínseco o fundamental. Pero el experimento en el sincrotón parece echar por la borda la teoría. Al parecer -sugiere Krish- no es esta la primera vez que hay serias discrepancias entre la teoría y la experiencia, para lo cual cita ejemplos:

N°1) En la década de los 50, en el Sincrotrón de la Universidad de Berkerley, trabajando con electrones, se encuentran diferencias, porque el experimento (en condiciones especiales) hace que los electrones “se alinien” y al tratar de pasar ese efecto a un grupo de protones, estos comienzan a girar en una sola alineación;

N°2) En la década de los 60, se demuestran anomalías en el comportamiento del spin de partículas sometidas a colisiones con altas energías.

En los experimentos efectuados en las décadas de los 70 y 80 por Krish se observó estas características: a) Las energías de colisión aumentan hasta 8 GeV; pero a menos de 8 GeV tienden a bajar gradualmente, lo que es consistente con la teoría cromodinámica; pero a energías superiores a 8 Gev el comportamiento quarks dentro del patrón cambia radicalmente; b) Igualmente en la década de los 80, trabajando con 28 GeV los resultados muestran las mismas anomalías. En consecuencia, a juicio de Krish es necesario reformular la teoría, porque en vez de hacer predicciones exactas, que luego deben llegar a verificarse mediante experimentos; es tan flexible que debe ser modificada con cada set de experimentos, lo que en la práctica la hace inexacta.

De acuerdo con la teoría cromodinámica dos de los tres quarks que constituyen internamente un protón, giran en la misma dirección que éste y el tercero gira en dirección opuesta. Por lo tanto siempre que se haga un experimento al menos dos de los quarks de cada protón que colisiona y dos de los quarks de cada protones “blanco” se deben encontrar paralelos, o bien anti-paralelos y lo mismo se aplica a los protones restantes.

Sin embargo la experiencia muestra que el comportamiento se modifica fuertemente en relación con la energía envuelta. Así, energías mayores que 8 GeV los electrones colinden más rápidamente si sus spin son paralelos; pero a energías de 13 GeV las colisiones son 4 veces mayores si los spin son paralelos que cuando son antiparalelos. Este comportamiento no es consistente, lo que obliga a pensar en un error de la teoría de la cromodinámica. Si se hace una extrapolación de este extraño comportamiento, se puede concluir con estas posibilidades todas diferentes: a) que a más alta energía si se aplica la teoría de la cromodinámica; b) que no es fácil fijar a qué rango de energía se inicia el comportamiento predicho por la teoría; c) los quarks observadores en los experimentos no pertenecen a los protones en colisión; d) que los protones tienen más de 3 quarks; e) que hay tres quarks, pero estos dejan de ser independientes cuando coliden dos protones.

En los dos casos que se han incluido, lo que se busca es mostrar cómo la ciencia avanza en un proceso de teoría, ensayo-error; pero que no siempre es tan transparente porque hay muchos intereses envueltos que van desde el ego de los físicos teóricos y experimentalistas, hasta enormes sumas de dinero envueltas en el proceso, lo que hace que muchas veces ambos sirvan de “barrera” para impedir nuevos enfoques y avances, porque de ese dinero viven instituciones, programas, universidades y agencias de gobierno y -de paso- hasta agrupaciones que actúan como círculos de poder extra-ciencia.



¿PRIMER PLANETA FUERA DE NUESTRO SISTEMA SOLAR?

En julio de 1991 en un informe publicado en la revista británica Journal of Astronomy, el astrónomo Andrew Lyne y sus colegas divulgaron un trabajo iniciado hace varios años usando un radiotelescopio en los laboratorios radioastronómicos Nuffield, de la Universidad de Manchester en Cheshire, Gran Bretaña, para estudiar un Pulsar, restos de una estrella que aparece orbitada por un planeta. De inmediato la prensa informa que los astrónomos de diversos países comenzaron hoy a estudiar lo que podría ser el primer planeta fuera de nuestro Sistema Solar, un mundo misterioso que gira aparentemente alrededor de los restos de una estrella fragmentada. “No están cien por ciento seguros de estar en lo cierto, pero si lo están, es un acontecimiento pionero e histórico”, dijo el astrónomo Carl Sagan, de la Universidad de Cornell.

Pese a que desde hace mucho tiempo los científicos sospechan que hay otros planetas en el Universo, el descubrimiento podría poner fin a una larga búsqueda y dar motivos para creer que existe la vida extraterrestre. “Es la primera evidencia concreta de que podría haber otros sistemas planetarios aparte del nuestro en el Universo. Lo nuestro podría ser un golpe de suerte. Pero si vemos que hay otros planetas, significa que nuestra estrella no es la única en tener un sistema planetario”, declaró el jefe del equipo británico que realizó el descubrimiento, Andrew Lyne.

Si hay otros sistemas planetarios, entonces eso quiere decir que hay otras posibles plataformas de vida en el Universo. Nosotros creemos que los planetas son casi el único lugar en el Universo donde es posible que haya una forma de vida”, declaró en una entrevista telefónica. Lyne señaló que duda que exista vida en el planeta recientemente descubierto debido a que cualquier organismo viviente probablemente hubiera desaparecido cuando su sol estalló en una explosión nuclear a gran escala.

Un pulsar, emite la mayoría de su energía bajo la mortal forma de rayos gamma, radiaciones que bañan constantemente cualquier planeta y matan todo tipo de vida; sin embargo, existe la posibilidad remota de que el planeta se hubiese formado luego que su rol estalló o que pudiera tener algún tipo de atmósfera que pudiera proteger la vida. Si tiene atmósfera, los rayos Gamma emitidos por la estrella generan probablemente una luz constante similar a la de los rayos solares que caen sobre la atmósfera terrestre al norte de la Tierra cada tercio de segundo. Sin embargo, otros astrónomos se muestran escépticos y señalan que se deben realizar nuevas investigaciones antes que cualquiera pueda concluir que se ha descubierto un nuevo planeta. “Es el objetivo sagrado de la astronomía: el hallazgo de un planeta, pero ya en el pasado, ha habido una serie de anuncios que resultaron ser prematuros o bien incorrectos”, declaró el astrónomo de la NASA Stephen Maran. “El asunto es, ¿es esto más de los mismo o se trata del adelante que todos estamos esperando?” señaló.

Sagan dijo que hay cincuenta por ciento de posibilidades de que el cuerpo sea realmente un planeta. En caso de ser así, el descubrimiento haría surgir un sinnúmero de interrogantes sobre como se forman los planetas y los pulsares, señaló. El descubrimiento ha reavivado el interés en el Programa SETI, según ha dicho Michael J. Klein, Director del Laboratorio de Cohetes a Propulsión (Jet Laboratory), de la NASA, quien en julio anuncia que empezando en 1992, el programa SETI (Búsqueda de Vida Extraterrestre Inteligente), a un costo de 100 millones de dólares, utilizará los radiotelescopios de la red de comunicación más grandes del mundo - para examinar las microondas del espacio electromagnético en busca de señales de vida en los astros.

Klein, uno de los directores de SETI, es el de los científicos que ha dedicado años a buscar apoyo para esta audaz empresa. Su fe se vio recompensada a finales de la década del 70 cuando la NASA empezó a patrocinar dicha investigación en el ámbito universitario. “Nuestra generación es la primera que cuenta con medios tecnológicos que permiten diferenciar entre la fantasía y la realidad”, dice Klein.

“La ciencia pronto podrá decirnos si hay planetas como el nuestro en otros sistemas solares, y si las condiciones son idóneas para la existencia de vida en esos planetas”, explica Klein refiriéndose a la información que los astrónomos han recogido recientemente y que ha ayudado a los científicos a identificar unas seis docenas de elementos que originan la vida - por ejemplo el hidrógeno, el nitrógeno, el oxígeno y las moléculas a base de carbono - en los gases y el polvo alrededor de los astros nuevos. Aproximadamente un 10 por ciento de las 300.000 millones de estrellas que se encuentran en esta galaxia, podrían ser como el Sol, ya que el nuestro no es una estrella tan espectacular, es de tamaño medio y no muy joven” dice Klein. Y predice que durante la próxima década los científicos podrán detectar sistemas planetarios alrededor de algunas estrellas.

“Aunque algunos observatorios aislados llevan realizando búsquedas desde 1960, SETI es el primer intento por explorar todo el firmamento”, explica John Rummel, en la sede de la NASA en Washington. “Existen muchas razones para creer que cuando uno mira el Universo con nuevos ojos se encuentran cosas nuevas. Se nos presenta la excitante posibilidad de detectar fenómenos físicos que antes se nos habían pasado por alto. Es una inversión en el conocimiento humano que a la larga nos puede resultar fructífera”.

Desde la Segunda Guerra Mundial, señala Rummel, los científicos han podido transmitir señales a una tercera parte de la galaxia. Por lo tanto, han llegado a la conclusión de que el buscar señales de una población que sea por lo menos tan avanzada como la de la Tierra, no es por ser poco realista. Dichas señales no tendrían por qué ser enviadas necesariamente a la Tierra y es muy probable que se hallaran en las ondas del radio de frecuencia de microondas porque esta parte del espectro electromagnético capta muy pocas interferencias de fondo.

Para que el programa se lleve a cabo en el tiempo previsto, los fondos del próximo ciclo presupuestario del Gobierno de Estados Unidos son cruciales porque los científicos en Ames y en el Laboratorio de Propulsión de Cohetes están actualmente probando el equipo de procesamiento digital que van a utilizar en la búsqueda.

Estas computadoras, elaboradas por Silicon Engines en Mountain View, California y por el Laboratorio de Propulsión de Cohetes, tienen un nuevo tiempo de circuito integrado por silicio diseñado por la Universidad de Stanford, California para SETI. Este circuito procesa la información con una rapidez cien veces mayor que la actual generación de supercomputadoras y reemplaza las grandes tarjetas de cordones metálicos y los circuitos normales que se usan en las computadoras comerciales.

También beneficia al campo de la enseñanza, dice Stephen H. Kohashi, miembro del Comité de Apropiación del Senado de Estados Unidos, que piensa que SETI “infundirá admiración y respeto hacia la tecnología entre los niños que todavía tienen capacidad de creer” en la vida extraterrestre. Con este propósito Klein trabaja con la Fundación SETI que es una organización con fines no lucrativos en California, para elaborar programas de estudio de ciencias que se base en dicho proyecto destinado a escuelas primarias y secundarias. Kohashi dice que SETI puede “infundir un espíritu de exploración en toda una nueva generación de jóvenes.”

Respecto al hallazgo de planetas extra sistema solar se han hecho gran cantidad de anuncios: la mayoría errados. Para finales de la década de los noventa, tan solo subsisten menos de diez como candidatos reales a sus planetas. En lo que respecta a su posible planeamiento por seres inteligentes, resulta que todos los programas de búsqueda de vida extraterrestre y de contacto con eventuales extraterrestres por medio de mensajes en el espectro electromagnético no han tenido éxito. Apenas a finales de la década de los 90 se han encontrado muestras de vida microorgánica (bacterias y virus) en meteoritos provenientes de Marte. Pero la búsqueda continúa.

¿GRAVITACION:ARQUITECTO DEL UNIVERSO?

En octubre de 1990, los astrónomos H. Perfect y R. Atkatz divulgan sus cálculos de muchos años de trabajo, mediante el cual demuestran que efectivamente el Universo comenzó de la nada en un estado muy caliente, de la sencillez y simetría más extrema, y a medida que se expande y se enfría, su perfecta simetría se rompe, dando origen a la complejidad que vemos hoy y actualmente nuestro Universo es el remanente congelado asimétrico, de su más antiguo estado caliente.

Para estudiar el origen del Universo a partir de la nada, los científicos cumplen el “método postulacional de Einstein”. Este método consiste en adivinar intuitivamente un postulado físico (que no puede ser comprobado directamente) y luego deducir, de manera lógica, sus consecuencias y posteriormente comprobar esos resultados frente a la experiencia. Si el test falla, los postulados asumidos deben ser rechazados.

Tal planteamiento es coincidente con la manera como la Biblia describe el origen del Universo, pues en el Génesis se inicia la explicación semántica de esta manera: “En el Principio Dios creó el cielo y la tierra. La Tierra era sin forma y el vacío y la oscuridad estaban por encima de la faz del abismo y el espíritu de Dios se estaba moviendo sobre la faz de las aguas”.

Un par de meses después en el British Journal Montley Notices de la Sociedad Real de Astronomía (British Astronomical Society), el cosmólogo Richard Gott de la Universidad de Princeton, con la ayuda del mayor ordenador construido para el estudio del Cosmos llega a la conclusión de que el Universo de hoy tiene una sorprendente y compleja arquitectura, en la que las galaxias son tan solo pequeñas partes del mismo y que la responsabilidad de la arquitectura del Universo es obra de la fuerza gravitatoria.

Para hacer tal afirmación, Gott con la ayuda de Chagbom Park programaron su superordenador Convex para seguir la evolución de cuatro millones de partículas, cada una de ellas con una pequeña fuerza gravitacional y distribuidas por un hipotético Universo a través de dos mil millones de años. Esos cálculos representan el doble de partículas de cualquier simulación hecha hasta ahora y proporcionan por vez primera suficiente detalle para poderlas comparar con las observaciones que los astrónomos hacen de la realidad.

Con la utilización de sólo catorce horas de ordenador, simularon trece mil millones de años de historia cósmica, comenzando por la primera milésima de segundo tras el Big - Bang, cuando el Universo comenzó a expandirse. En esta pequeñísima fracción, creen que ciertas fluctuaciones de partículas, resultado de efectos mecánicos de un complejo quantum (cuanta), se congelaron y pequeños centros de poder con una ligera fuerza de gravedad atrajeron hacia sí más partículas. Al tiempo, las regiones con una densidad media más baja se hicieron menos densas y el exterior de esas minúsculas desigualdades crecieron grupos y racimos de miles de millones de estrellas.

El Universo del ordenador pareció muy similar al que los astrónomos contemplan en sus observaciones. Los resultados muestran nubes de grupos de galaxias entrelazados por filamentos en medio de grandes vacíos por otros grupos más apiñados conectados por un complejo patrón similar a una esponja.

Indagando entre esas regiones de materia se aprecia una única red complicada de vacíos conectados entre sí, donde las agrupaciones de materia se manifiestan aisladas. Este estudio constituye un nuevo aliento a la debatida teoría sobre la existencia de una materia fría y oscura, que muchos científicos creían ya superada por los recientes hallazgos que hacen referencia a un primitivo Universo enormemente agrupado.

Hace más de una década, los astrónomos soñaron en unas hipotéticas partículas conocidas como materia fría y oscura para poder resolver el problema. El Universo se comporta como si tuviera una gravedad diez veces mayor que la que se puede calcular por la materia apreciable. Dado que la fuerza de la gravedad es un efecto de masa, los científicos defendieron la existencia de una forma de materia no detectada y que por ello debía ser fría y oscura.
Un noventa por ciento de la materia del Universo, sugirieron, debió tomar la forma invisible, constituyendo partículas con enorme masa inmediatamente después del Big - Bang, pero antes de formarse la materia visible. Así es como pudo la gravedad tomar la delantera para realizar su trabajo. Pero los descubrimientos de los últimos meses de grandes estructuras como La Gran Muralla, una gran extensión de galaxias con un alcance de varios miles de millones de años luz, y el Gran Imán, una enorme concentración de materia que atrae a miles de galaxias, entre ellas la Vía Láctea, pareció que echaban por tierra la teoría de la materia fría y oscura.

La teoría de la materia fría y oscura parecía que estaba por ser desechada pero estos hallazgos (de la simulación por ordenador), aunque no los salvan por completo, muestran que no ha muerto, al menos por ahora.

¿CUÁL ES LA PROCEDENCIA DE LOS RAYOS COSMICOS?

En febrero de 1992 en un artículo publicado Science ,un grupo de astrónomos manifiesta que, a una cadencia aproximada de una por segundo, las partículas subatómicas penetran en la atmósfera terrestre portando la energía de una piedra arrojada con fuerza. De este fenómeno se infiere que, en algún lugar del Universo, haya fuerza que pueden suministrar a un solo protón 100 millones de veces la energía alcanzable en nuestro aceleradores más potentes de partículas. ¿Dónde se halla esa fuente? ¿De qué modo acontece el proceso?

Sobre esas cuestiones vienen interrogándose los físicos desde el descubrimiento de los rayos cósmicos en 1912. (Aunque sabemos ya que tales entidades son en realidad partículas, se las sigue llamando "rayos"). El medio interestelar contiene núcleos atómicos de todos los elementos de la tabla periódica, que se mueven sometidos al influjo de campos eléctricos y magnéticos. En 1960 Bernard Peters, del Instituto Tata de Bombay, sugirió que los rayos cósmicos de energía más baja se producen mayoritariamente en nuestra propia galaxia, mientras que los de energías más altas vienen de fuentes más lejanas.

Los rayos cósmicos -núcleos atómicos que viajan a casi la velocidad de la luz- habitan en un Universo, extraña y relativísticamente "contraído" antes de chocar con los núcleos de los átomos del gas atmosférico a gran altura sobre la Tierra. Una fracción significativa de la energía incidente se convierte en materia en forma de partículas subatómicas, muones inclusive, que a su vez colisionan violentamente con otros átomos en la atmósfera creando una "cascada atmosférica. También se emiten rayos gama.

Deducciones tan endebles revelan cuán poco se conoce a ciencia cierta sobre el origen de los rayos cósmicos. Los astrofísicos han elaborado modelos plausibles sobre su verosímil formación, pero carecen de respuestas tajantes. Esta situación puede ser el resultado de la casi imaginable diferencia entre las condiciones en la Tierra y las que rigen en las regiones donde se crean los rayos cósmicos. El espacio que media entre las estrellas contiene sólo aproximadamente un átomo por centímetro cúbico, una densidad mucho menor que la que hoy en día podemos crear con los mejores vacíos artificiales. Además, tales volúmenes están llenos de inmensos campos eléctricos y magnéticos, íntimamente ligados a una población difusa de partículas dotadas de carga y menos numerosa incluso que la construida por átomos neutros.

El espacio interestelar dista muchísimo de ser el lugar apacible que cabría esperar. Las bajas densidades allí reinantes permiten que las fuerzas eléctricas y magnéticas actúen a grandes distancias y escalas de tiempo, y operen así de una forma que, en un medio con las densidades a que estamos acostumbrados en la Tierra, quedaría de inmediato amortiguada. El espacio galáctico se encuentra, pues, lleno de un plasma turbulento y energético de gas parcialmente ionizado en un estado de violenta actividad. Debido a la inmensidad de las distancias astronómicas, cuesta a menudo observar, a escalas de tiempo humanas, el movimiento; no obstante, esas mismas distancias permiten, incluso a fuerzas moderadas, producir resultados impresionantes.

No es ocioso pensar en cuáles podrían ser tales manantiales. Tres hipótesis recientes sugieren el rango de posibilidades: discos de acreción de agujeros negros galácticos, ráfagas de rayos gamma ("gamma-raybursts") y defectos topológicos en el Universo.

Según predice la astrofísica, se necesitan los agujeros negros de mil millones de masas solares o más, congregando por acreción masa de los núcleos de galaxias activas, para lanzar chorros relativistas de materia hacia el espacio interestelar profundo a velocidades próximas a la lumínica; los radiotelescopios han cartografiado esos chorros. Peter L. Biermann y sus colaboradores, del Instituto Max Planck de Radioastronomía de Bonn, sugieren que los puntos calientes vistos en estos radiolóbulos son frentes de choque que aceleran rayos cósmicos a energías ultra-altas. Hay indicios de que las direcciones de los rayos cósmicos de energías más altas secundan en cierto modo la distribución de radiogalaxias en el cielo.

La hipótesis sobre las ráfagas de rayos gamma parte de la teoría según la cual las ráfagas se crean en explosiones relativistas, resultado posible del encuentro de estrellas de neutrones. Mario Vietri, del Observatorio Astronómico de Roma, y Eli Waxman, de la Universidad de Princeton, observaron independientemente que la energía disponible en tales cataclismos es aproximadamente la misma que la necesaria para producir el flujo observado de los rayos cósmicos de las energías más altas. Aducen que las ondas expansivas a velocidades ultra-alta deben su existencia a la desintegración de "monopolos", "cuerdas cósmicas", paredes de dominio y otros defectos topológicos que podrían haberse creado en el Universo primigenio. Se piensa que estos objetos hipotéticos albergan los restos de una fase más temprana y simétrica de los campos fundamentales en la naturaleza, cuando la gravedad, el electromagnetismo y las fuerzas nucleares débil y fuerte formaban una sola entidad. Vendrían
a ser bolsitas infinitesimales que guardan trozos del Universo que existió instantes después de la gran explosión inicial.

Cuando tales bolsitas se colapsan y se rompe la simetría de las fuerzas de su interior, la energía almacenada se desprende en forma de partículas supermasivas que se desintegran inmediatamente en chorros de partículas con fuerzas energéticas hasta 100.000 veces mayores que la que portan los rayos cósmicos de ultra-alta energía conocidos. En este modelo, los rayos cósmicos de ultra-alta energía que observamos serían los productos inertes de las cascadas de partículas cosmológicas.

Mientras los investigadores se enfrentan al problema de construir y operar semejantes redes de detectores gigantescos, la cuestión fundamental queda abierta: ¿puede la naturaleza producir partículas incluso más energéticas que las que se han observado? ¿Podrían existir rayos cósmicos de energías aún mayores o se está ya detectando las partículas con la energía más alta que nuestro Universo puede producir?

¿ES REAL EL PRINCIPIO ANTROPICO”?

El 27 de octubre de 1991, un informe publicado por la prensa descarta el llamado “Principio Antrópico”, ya que según el palentólogo norteamericano Stephn Jay Gould de la Universidad de Harvard el hombre no sólo no es el rey de la creación, sino que ni siquiera es el producto más complejo y acabado de la evolución; pues, “a lo sumo es un caso afortunado de sobrevivencia entre miles de millones de combinaciones posibles.”


El especialista - reconocida autoridad en la materia - explica en declaraciones de la prensa que: “todo comenzó con “Marella” y sus hermanas, animales realmente asombrosos: los primeros seres pluricelulares que vivieron hace quinientos millones de años en un mar, luego desplazado por las Montañas Rocosas Canadienses. Allí se encontraron los fósiles que, distintos a los habituales, muestran también las partes del animal. Hasta el momento, se pensaba que los primeros pluricelulares pertenecían todos a una misma familia. Pero Marella y sus hermanas, en cambio, demostraron lo contrario”.

En especial, un descubrimiento llevó a Gould a revolucionar la teoría de la evolución: el hecho de que estos seres rudimentarios se dividieran en más familias de las actualmente existentes. Hasta tal hallazgo, es verdad, los científicos creían que todos estos organismos contenían las formas simples de los animales modernos: por lo tanto, de una o dos especies iniciales, se llegaba a las múltiples actuales. Esto acreditaba la idea de que la evolución progresaba de lo simple a lo complejo. Marella y sus hermanas a juicio del investigador demuestran lo contrario, es decir, que las especies eran muchas más entonces que hoy, y que la mayor parte de los grandes grupos ha desaparecido, en lugar de formarse en el curso de la evolución.

Según la teoría de Gould habrían sobrevivido no los mejor adaptados al ambiente, como afirma la teoría evolucionista clásica, sino simplemente los más afortunados: “Basta un cataclísmo” - dice Gould - para que las especies mejor adaptadas desaparezcan en masa. Y hoy nos damos cuenta de que la historia de la vida está llena de cataclismos: es una gran lotería. Es preciso por lo tanto concebir a la evolución no como un progreso continuo, sino como una sucesión de fases de equilibrio y de extinciones masivas, que responden exclusivamente a la casualidad.

Y el hombre ¿cómo llegó a la conciencia y que probabilidades tenía de lograrlo?. “Una probabilidad infinitesimal, responde Gould, destruyendo en un instante toda nuestra sensación de superioridad. El primerísimo miembro de nuestra estirpe - prosigue - es un pequeño gusano de cinco a diez centímetros, llamado “Pikaia”. Imaginemos que la evolución sea un filme y rebobinemos. Imaginemos luego que Pikaia no sobreviva: en este caso estaríamos cancelados todos de la historia. ¿Por qué entonces existen los hombres?; porque Pikaia fue afortunado y sobrevivió. “Ningún cálculo de las probabilidades, ninguna lógica evolutiva, ninguna regla anatómica puede explicar este hecho” - concluye Gould. “Pikaia fue simplemente afortunado y es por eso que nosotros existimos: simple azar.“

En la investigación biológica, al igual que en todas las disciplinas humanas, hay opiniones, ideas, hipótesis, teorías, doctrinas y leyes, según sea el grado de verosimilitud implicado. Por otra parte, según los planteamientos de Popper toda teoría, por bien asentada (esto es con alto grado de verosimilitud) que se encuentre, está expuesta a ser falseable. En el caso de la posición de Stephen Jay Gould se trata de una opinión, por una parte; por otra sus planteamientos suelen ser refutados por otros biólogos contemporáneos, entre ellos Bryan Goodwin; Steve Jones y George C. Williams, todos ellos de igual relieve académico como Gould como una muestra de otras posiciones sobre el tema se encuentran estos criterios:

a) Hace bastante tiempo afirmaba Lamarck, antes de Darwin, que las leyes que operaban en la materia viva eran las mismas por las que se regía la materia inerte. La diferencia entre lo vivo y lo inerte residía en la organización. Cuando se presentaban ciertas condiciones, la materia inanimada se reorganizaba en materia viva. Las formas evolucionaban instadas por un doble mecanismo: una tendencia natural hacia la complejidad y una capacidad de reaccionar ante los estímulos del entorno.

Las primeras reticencias las encontró Lamarck en los medios fijistas de su tiempo. La crítica más demoledora la articuló August Weismann, al demostrar que los cambios en la línea somática nunca saltaban a la línea germinal. El lamarckismo fue perdiendo terreno, por mucho que los paleontólogos americanos y alemanes lo vieran reflejado en las series fósiles que iban apareciendo. Hubo más intentos de salvarlo modernamente: Ives Delage, Marie Goldsmith y otros biólogos entendieron el lamarckismo en un sentido amplio. "Se producía herencia lamarckiana siempre que un carácter dependiente del estímulo en una generación pasaba a ser independiente del estímulo en las generaciones siguientes".

b) De igual manera para Jablonka y Lamb, hay herencia lamarckiana si se cumplen cuatro condiciones: el entorno induce el cambio del carácter: el cambio inducido es específico y repetible; se produce un cambio específico en la información hereditaria, y el cambio se transmite a la generación siguiente. La biología molecular ha terminado por reconocer que el genoma es un sistema fluido y poroso a las presiones del entorno. Ha confirmado también que la información encuentra varios canales para su transmisión por vía hereditaria. No todos los cambios son resultado de la selección darwinista entre variaciones aleatorias nacidas de mutación o recombinación génica. Para entender el curso de la evolución hay que atender también a los mecanismos de epigénesis, los responsables del desarrollo. Los sistemas de herencia epigenéticos permiten que las cédulas con genotipos idénticos adquieran y transmitan fenotipos diferentes.

c) El biólogo alemán Manfred Eigen cifra en la "información" el hilo conductor de la evolución. La selección no es un componente adicional que se active desde el exterior. La selección es una forma de autoorganización y, en cuanto tal, una consecuencia directa de la autoreproducción. La evolución, primero molecular, luego celular y, por último, del organismo, sólo fue posible a través de la reproducción y la selección".

Gould aprovecha su turno para identificar la naturaleza de la vida con un problema de jerarquía e historia. De acuerdo con la perspectiva jerárquica de la selección natural, los diversos niveles ascendentes en sistemas estructurales de inclusión -genes, organismos y especies- podrían actuar simultáneamente como focos legítimos de selección natural. Si las especies son unidades de selección por derecho propio, entonces la pauta evolutiva debe estudiarse en la plenitud de duraciones de las especies, esto es, directamente en el tiempo geológico. El problema de la vida es un problema de historia.

d) Según el biólogo Jared Diamond la antropología y la paleontología nos enseñan que somos únicos hoy y en la historia de la vida sobre la Tierra. Pero nuestra singularidad no es absoluta. Tenemos la anatomía de los primates, y las mismas o casi las mismas proteínas. (entre las proteínas secuenciadas hasta la fecha en los primates africanos y humanos -cinco cadenas de hemoglobina, mioglobina, citocromo C, anhidrasa carbónica y fibrinopéptidos A y B- en su mayoría ni siquiera exhiben la diferencia de un aminoácido entre especies, y el número total de cambios aminoacídicos es sólo de cinco en un total de 1271 restos secuenciados). Compartimos un 98,4 por ciento de nuestro ADN con el de dos especies de chimpancé, el común y el pigmeo. Además, el 90% de nuestro ADN no es codificador. ¿Qué eran esos escasos genes para justificar esa diferencia conductual que separó al hombre de los demás primates. La respuesta está en el escaso porcentaje restante (1.6%) que hizo producir el salto cualitativo. Son los genes responsables de la perfección del lenguaje hablado, que hacen que en el Ser Humano la vida, en su expresión más elevada se trueque en información hablada. Y estos genes se han identificado en el cromosoma 6 se aloja cierto racimo de ellos, son los genes HLA.

¿ ES LA NADA RELATIVA ?

En junio de 1991, en la revista francesa Recherche, David Polarski divulga parte de los trabajos del físico británico Hawking de finales de la década anterior y afirma que la naturaleza del Universo, de la materia que lo estructura se revela mucho más compleja de lo que se pensaba. Y ello a pesar de la fecunda imaginación de los investigadores científicos que elaboran las teorías, buscando dominar la realidad. Los cuerpos macroscópicos aparentemente no crearían problemas; están ahí, bien visibles delante del observador astrónomo.

Sin embargo, hay otros, por lo menos en teoría, como es el caso de los agujeros negros, que dejan de ser visibles porque el tipo de su materia y el carácter del movimiento del objeto es tal que atrapa todo rayo luminoso, se transforma en ciego y no da información. Pero entre los cuerpos macroscópicos existen en los espacios infinitos inmensas regiones de vacío, cuya naturaleza exacta y las consecuencias probables de la misma, todavía no se comprenden claramente y por ello el llamado vacío interestelar constituye un enigma. Desde los trabajos de Dirac, el físico inglés, se sabe que ese es un vacío de todos modos relativo; es, paradójicamente un “vacío lleno”. El medio interestelar es considerado por los especialistas como continuo, con características muy particulares, tales como viscosidad y conductividad eléctrica.

El físico austríaco Walter Hollistscher afirma que las partículas son solo estímulos del vacío que continúa existiendo incluso cuando no hay más partículas. “En él, afirma, fluctúa el campo electromagnético y aún en el caso en que las partículas se encuentren en una notable distancia unas de otras, siguen perteneciendo al medio que les produce”.

Entre las investigaciones más recientes que ponen de manifiesto fenómenos sorprendentes con relación a este vacío complejo, los trabajos del físico británico Hawking, en relación con los “agujeros negros”, muestra una paradoja desconcertante: la existencia misma de partículas de materia que no serían exactamente un dato objetivo, sino que dependerían del observador. La ausencia de partículas, es decir, el vacío, debería ser considerada entonces no como absoluto, sino como un fenómeno relativo, según el sistema de referencia utilizado.

Partiendo de los trabajos de Hawking se arriba a la conclusión de que si se incorpora la Teoría Cuántica a la Teoría de la Relatividad General, un observador “A” puede observar un vacío sin detectar ninguna partícula, mientras otro observador, “B”, acelerado en relación con el primero, detectará una radiación de partículas en equilibrio térmico. De tal manera, el vacío para “A” no es el mismo que para “B”, pero está curiosa particularidad plantea un problema de interpretación que se mantiene abierto.

Contrariamente a la física clásica que consideraba el vacío como la nada, la Teoría Cuántica, en pleno desarrollo hoy en día y que se esfuerza por interpretar la estructura íntima de la materia, considera ese vacío como un estado físico entre otros. De esta manera, un criterio físico puede explicar la aparición de un vacío o de otro. En cuanto a sí otras condiciones podrían generar otro tipo de vacío, “es un problema abierto del que no se sabe todavía gran cosa”.

¿ UNIVERSO TRANQUILO ?

Hasta hace escasas décadas se creía que el Universo es tranquilo, pero en noviembre de 1991, en un artículo de Scientific American se afirma lo contrario, porque los choques violentos entre grupos formados por miles de millones de estrellas, son mucho más comunes de lo que se pensaba y podrán originar nuevos objetos cósmicos, según demuestran los últimos modelos informativos y observacionales astronómicos. De estas colisiones colosales, que se producen a velocidades demenciales y duran miles de millones de años, surgirían los anigmáticos quásares (los objetos más antiguos, distantes y energéticos del Universo) y las gigantescas galaxias elípticas (conglomerados de soles casi sin forma y con órbitas azarosas).

Los astrónomos Joshua Barnes y Francois Scheweitzer del Instituto Astrofísico de Hawai y el físico Kars Hernquist, del Observatorio Kucj de la Universidad de California, quienes estudian desde hace años la interacción galáctica, una rama científica que podría resolver muchos de los actuales misterios de la astronomía. Curiosamente, mientras mayor es la velocidad a la que chocan las galaxias, menor es el daño que produce su impacto, debido a que la fuerza de gravedad tiene menos tiempo para producir grandes y destructoras mareas, explican los expertos.

Algunos pares de galaxias se aproximan a miles de kilómetros por segundo y pasan directamente una a través de la otra sin sufrir daños reseñables, pero si se acercaran a sólo cientos de kilómetros por segundo una disgregaría a la otra, fundiéndose en pocos centenares de millones de años. De todos modos, las distancias entre las estrellas son tales, que hasta en el más violento de los choques galácticos apenas se producen colisiones de soles. La galaxia que se encuentra en el campo gravitatorio de una compañera desarrolla protuberancias en su extremo más próximos y distantes, del mismo modo que la fuerza de gravedad lunar atrae a las aguas oceánicas y produce las mareas en la Tierra.

“En encuentros próximos, las fuerzas de marea entre un par de galaxias pueden llegar a destrozar las dos”, aseguran Barnes, Hernquist y Schweitzer. Desde la década de los cincuenta se conoce la existencia de galaxias curiosas, rodeadas de puentes y colas, configuraciones alargadas a las que se consideraba aberrantes, pero que observaciones y estudios posteriores permiten atribuir a los choques galácticos. En 1983, el Satélite Astronómico de Infrarrojos (IRAS) brindó pruebas sorprendentes de este fenómeno al observar una intensa formación de estrellas, debida a los choques o fusiones intergalácticas.

El estudio comenzó en 1983, mediante el IRAS (Satélite Internacional de Astronomía Infrarroja) cuando se descubre en la Galaxia UCG 9922 una irradiación anormalmente elevada en el infrarrojo y se presupone la situación es debida, probablemente, a “movimientos poco ordenados de gases y estrella”, cuyo origen solo podría explicarse por la fusión de dos galaxias”.

Este fenómeno era rechazado aún a principios de la década del 80 pero el 18 de noviembre de 1981 se da a conocer públicamente por parte de los astrónomos franceses Suzanne Considere y Emmanuel Davoust del CNRS, que la galaxia UGC 9222, situada a doscientos veinticinco millones de años luz de la Tierra “fagocitó” a una galaxia satélite situada a 15 mil años luz de la espiral de la primera, y luego “fagocitó” a una segunda (que es precisamente el fenómeno detectado), el cual produce un “sobresalto intenso” en los procesos de formación de estrellas. El hallazgo que revoluciona los conceptos de desarrollo de las galaxias y de la relación entre estas se encuentra ya publicado en la revista Astronomy and Astrophysics.

A finales de 1988, un equipo de astrónomos franceses dan cuenta del descubrimiento de un choque entre galaxias ocurrido hace apenas un siglo. En 1979, David Malin, del Observatorio Anglo - Australiano de Nueva Gales del Sur, ya había detectado unas capas de materia luminosas, gitantescas y tenues, al parecer originadas por los choques y explosiones entre galaxias. Estas capas tenues han sido observadas en muchas galaxias, lo que sugiere que los choques deben ser bastante comunes. La investigación de las galaxias elípticas también ha revelado indicios de fusiones recientes según los expertos. En algunas, la región central gira en una dirección mientras que las partes más externas lo hacen en sentido contrario, lo que resultaría muy natural en un proceso de fusión.

Otro fenómeno que hace prever choques frecuentes es que las galaxias no sólo las forman estrellas luminosas y nubes de gas, sino también materia invisible, que representa la mayor parte de su masa y hace crecer la posibilidad de encuentros. Los modelos matemáticos demuestran que cuando a un disco giratorio de estrellas lo afectan las mareas gravitatorias de una compañera cercana (galaxias elípticas en unos casos o pulsares en otros), desarrolla estructuras en forma de puentes y colas, y dependiendo del tipo y forma, brazos espirales, anillos estelares y toda clase de filamentos y apéndices luminosos.


¿ PUEDE LA CIENCIA PROBAR LA EXISTENCIA DE DIOS ?

¿Puede la ciencia probar la existencia de Dios? ¿Podrán alguna vez los científicos plantear seriamente esta interrogante como tema de análisis? Estas fueron las dos sugestivas interrogantes que se plantean en “La Mente de Dios”, un artículo escrito por A.J.S. Rayl y K.T. Mckinney en la revista de divulgación científica Omni a mediados de 1989.

“Preguntar a los científicos sobre Dios causa reacciones inmediatas que van desde risas nerviosas hasta hondos suspiros.”, señalan los directores de la revista en su introducción del artículo. “Por ejemplo, un científico laureado con el Premio Nobel se mostró ofendido de que los escritores osaran incluso considerar una idea así como historia y cortó la llamada telefónica de Rayl sin mayores comentarios.”

Sin embargo, varios aceptaron responder. Por ejemplo, el físico matemático de la Universidad de Tulane, Frank Tippler quien señala: “la ciencia se preocupa con la totalidad de la existencia. Si la ciencia no puede alcanzar a Dios, entonces Dios no existe.” Muchos son los obstáculos que se interponen en la búsqueda científica de Dios.
En primer lugar, según el ex jefe de Personal del Hospital Metropolitano de Dallas, Larry Dossey, se debe “poner la idea sobre la mesa y sencillamente reconocer que se trata de un tema legítimo de conversación.” Ello quiere decir que los científicos tendrán que ser receptivos ante al idea y aceptar cualquier evidencia que se les presente. “No se trata de una herejía científica, ni una blasfemia a la que se llega por una evidencia indirecta; nadie ha tenido alguna vez un quark en sus manos. El mismo razonamiento puede ser aplicado a Dios.”

Otro problema similar es la dificultad para conseguir apoyo económico para realizar un proyecto de investigación que comprueba la existencia de Dios: “No se consigue fácilmente el financiamiento necesario para ir y encontrar a Dios”, declaró el profesor Stephemn Laberge, psicólogo de la Universidad de Stanford. “Aún si no lo logra primero habría que definir qué quiere decir uno con Dios. “Esto constituye igualmente un obstáculo enorme. Cada religión y grupo de creyentes tienen diferentes nociones sobre Dios. Además en las sociedades occidentales, aún aquellos que comparten el mismo credo tienen sus propias creencias particulares, con frecuencia en lo referente a una forma física y no en lo que trasciende la realidad física.”

Acerca de esta espinosa materia este tema había sido planteado por el filósofo Kant, para quién es necesario llegar al conocimiento de la existencia de Dios pero la demostración científica de la existencia de Dios no es posible. Esto es, no es posible emitir juicios científicos sobre Dios, puesto que tales juicios dependen de la percepción sensible, mientras que Dios no cae dentro del espacio y del tiempo, esto no es objeto de la percepción sensible. Los juicios científicos tienen que expresar una verdad que sea a un tiempo necesaria (apriorística) y nueva (sintética). Es decir, los “juicios sintéticos a priori”, sólo son posibles, en las matemáticas y en las ciencias de la naturaleza pero no en la metafísica tradicional.

Las tres pruebas clásicas para demostrar la existencia de Dios son negadas por Kant por las razones siguientes:

1) Prueba Ontológica: Porque implica un paso ilegítimo de la simple idea de Dios a la realidad misma de Dios y es tautológico.”
2) Prueba Cosmológica: Porque el ser contingente supone una causa absolutamente necesaria y esto supone - a priori - volver a caer en el argumento ontológico.
3) Prueba Teleológica: Porque afirma que del orden del Universo se infiere una causa creadora. Pero en realidad, sólo se puede inferir una causa ordenadora, pero no creadora y omnisuficiente, ni actualmente existente.

Por su parte, el teólogo Joseph Schumuker, profesor de Teología en la Universidad de Ratisbona, en Alemania asevera que la cuestión de si ¿Existe realmente Dios, como lo cree la religión, más exactamente, la religión cristiana, es decir, un Dios trascendente, personal, infinitamente santo e omnipotente?... es la más importante y a la vez emotiva, inquietud que puede el hombre plantearse en toda su existencia. Pues la respuesta que se dé a ella, lo mismo si es afirmativa que negativa, decide en todo caso, a fondo, su mentalidad o concepción del mundo , el sentido y finalidad de su vida y su postura ante la muerte. Se trata, en síntesis de la cuestión que hace palidecer a todas las otras interrogantes. Además asegura que la fatal dificultad de la cuestión de Dios es sentida por el hombre moderno más que por las generaciones anteriores, por doble motivo:
a) En primer lugar, en la antigüedad y en la Edad Media hubo una relación social con las cuestiones relativas a la existencia y a la muerte, que le quitaba, en gran parte, a las personas, el trabajo de tomar una posición propia e independiente.
b) Modernamente, la cuestión de Dios es absolutamente libre, ahora el hombre tiene que plantearse el problema como individuo a sí mismo, libre de la coacción de un sentimiento social. Dado que la cuestión de Dios sólo recibe gran silencio de la sociedad y de la cultura modernas.

Por otra parte, Schumuker relata que durante siglos los teólogos hicieron maravillas buscando argumentos abstractos para demostrar científicamente la existencia de Dios; pero que, tales pruebas, como lo demostraron Hume, Kant, los filósofos positivistas, los idealistas, los materialistas y la ciencia son débiles y carentes de sentido, En consecuencia, no es por esa vía que debe demostrarse - ni se encontrará - a Dios, bien para atribuirle la creación o para hacerle un Dios personal. En los reductos de la fe y la moral personal es donde debe buscarse.

Sin embargo, en 1996, Walter Bradley, investigador en Ingeniería Mecánica, de la Universidad de Texas, en un artículo difundido por INTERNET, bajo el título Evidencias Científicas de la Existencia de Dios”, dice que hoy día es posible demostrar la existencia de Dios por métodos científicos que revelan la presencia de un ser inteligente en el Universo. Bradley explica que el filósofo Martin Prozesky, agnóstico, en su obra: “A New Guide to the Debate About God” (1993), considera que los principales argumentos en contra de la existencia de Dios actualmente, son de origen teológico y filosófico y los principales argumentos en favor de su existencia, provienen de la Teoría del Big Bang; de la Biología Molecular y del Principio Antrófico; y de seguido plantea que la evidencia de la existencia de Dios, a nivel científico, procede de:
a) Evidencia que se despide del diseño del Universo por la presencia de formas matemáticas simples por parte de la Naturaleza;
b) La coincidencia que las constantes universales son exactamente las necesarias para dar albergue a la vida;
c) La coincidencia de que las condiciones iniciales de muchas situaciones físicas, químicas, biológicas, son exactamente las justas y críticas para su existencia.

Y el cosmólogo Frank J. Tippler -autor de la “Teoría del Punto Omega”- citado en el artículo de la revista precisamente, escribió un libro sobre el tema a inicios de los 90: "Teoría del Punto Omega: La Física de la Inmortalidad" el cual se analizará con detalle en otro capítulo.

¿ EXISTE EL TIEMPO ?

Desde Huelva, España la prensa informa que “la comunidad científica reunida del 2 al 6 de octubre de 1991 no logra ponerse de acuerdo sobre si el tiempo existe o es un concepto inventado”, según quedó el viernes de manifiesto al término de un seminario celebrado en España para tratar específicamente de este tema. Más de cuarenta científicos de todo el mundo, entre ellos el británico Stephen Hawking y los estadounidenses Murray Gell - Mann, John Wheeler y su colaborador el cosmólogo chileno Claudio Teitelboim participaron en unas jornadas dedicadas a la asimetría del tiempo, concepto que hace referencia al hecho de que este fluye en un único sentido.

Al final del seminario se hizo una encuesta entre los participantes para determinar si creían o no en la existencia del tiempo y hubo veinte que contestaron negativamente, catorce que lo hicieron afirmativamente y otros catorce que se abstuvieron por considerar que no tenían suficiente elementos de juicio. Entre los defensores de la existencia del tiempo se encuentran el Nobel de Física Gell - Mann y también Stephen W. Hawking, quien en una conferencia publicada en Sevilla descartó la posibilidad de viajar en el tiempo”.

Brandon Carter y S. W. Hawking se refirieron - además al Principio Antrópico - según el cual en un determinado momento se crean condiciones para el aflorar la conciencia que prácticamente permite afirmar que este Universo ha sido diseñado a “Medida del Hombre”.



¿COSMOLOGIA DEL PLASMA MEJOR QUE EL MODELO BING BANG ?

A mediados de 1988, la Revista Sky and Telescope publica un artículo de fondo dedicado a plantear una teoría que sustituya a la del B.B., dado que para esas fechas hay dudas razonables sobre su validez. Debido a problemas que afronta la Cosmología del Big Bang en la tercera semana de febrero de 1989 se reunió a un grupo de cosmólogos con el Dr. Havnes Alfven para revisar la llamada Cosmología del Plasma como una respuesta óptima para la cosmología y para dar a conocer sus puntos de vista en una publicación, con lo que la llamada “Cosmología del Plasma” planteada entre 1930 y 1950 por el físico sueco Hannes Alfven, junto con Nicolai Herlopson y Karl Kiepenheu, puede volver a la consideración de los cosmólogos.

El concepto plasma - muy asociado a la sangre y a la medicina, del cual deriva su nombre dado por el físico norteamericano Langmuir - es el llamado “cuarto estado” de la materia. Existe en los gases calentados a cierta temperatura, o en el interior de los metales - aún a temperatura ambiente y es un excelente conductor de la electricidad, a la vez cambia su estado para comportarse de manera diferente a como lo hacen sustancias en cualquiera de los otros tres estados.

Sin embargo, el plasma al que se refieren los cosmólogos es la materia sometida a presión y temperatura muy altas (más de un millón de grados K) que se encuentra en el espacio interestelar e intergaláctico o en las estrellas y es el causante de grandes cantidades de radiación electromagnética, rayos X, rayos Gamma o de ondas electromagnéticas de baja energía, como ondas de radio y emisiones visibles. Estas radiaciones son de origen térmico, pero no es esta su única causa en razón de que electrones libres girando a una velocidad muy cercana a la luz en un campo de alta intensidad magnética pueden producirla también y si la conoce entonces como radiación sincrotrónica. Según Alfven y sus colaboradores “ en todo el Universo existen además corrientes de electrones moviéndose a velocidades cercanas a la de la luz en líneas de fuerza magnética (conocidas como corrientes de Birkeland, quien las identificó en las auroras boreales) las que serían las causantes de la alineación de la materia en gigantescas estructuras de carácter celular y filamentar.

En razón de que en la década de los cincuenta la cosmología mantiene el criterio de la isotropía y de la formación de grandes estructuras como resultado de un proceso evolutivo “suave”, la tesis no recibe respaldo, pero a finales de los ochenta e inicios de los noventa, la idea de la existencia de cordones cósmicos, paredes cósmicas y grandes conglomerados de galaxias no es novedosa y permite dar crédito al planteamiento de que pueden haber sido formadas por corrientes eléctricas. En 1974, un satélite artificial norteamericano logra detectar esta corriente prevista por Alfven; en 1979 la sonda Viajero II encuentra las corrientes de Birkeland entre Júpiter y su satélite natural io y en 1984 un grupo de radioastrónomos bajo la dirección de Farhad Yusef - Zadeh, encuentran un ejemplo de este tipo de corriente en la Vía Láctea.

Con el advenimiento de la era de las computadoras se han simulado las corrientes de Birkeland para aplicarla a millones de partículas y las formaciones obtenidas en efecto concuerdan con las propuestas de la Cosmología del Plasma ya que de las partículas libres, se pasa a estructuras que van evolucionando hasta dar origen a las estructuras de tipo galáctico que se conoce; pero cuya formación sería originada no como resultado de la gravedad sino de corrientes eléctricas. Hay además tres aspectos interesantes en este planteamiento:

1.- La similitud de la radiación de fondo de cuerpo negro se debe, no a los restos de un hipotético B.B., sino a energía desprendida del proceso de formación de las estructuras filamentarias que los físicos William Peter y Eric Lerner estiman en 5 X 10-14 julios por metro cúbico y cuya radiación arroja un dato muy cercano al conocido 2.73 K (sus cálculos dan 2,87 K).

2.- Todo el plasma se estructura en formas celulares, divididas por zonas vacías que dan la impresión de “paneles de abeja” de grotescas dimensiones, lo que explicaría - según la tesis - la ausencia de la homogeneidad actualmente detectada.

3.- El efecto de Hubble no sería la resultante de una gigantesca y primigenia explosión, pues el efecto Doppler en que se fundamenta la medición de corrimiento al rojo de la luz que explicaría la recesión de galaxias, se puede obtener también - a la misma escala - mediante el “efecto de Wolf”.

El efecto consiste en un mecanismo descubierto por el físico Emil Wolf al unir dos fuentes diferentes en una sola y dando como efecto un mimetismo del efecto Doppler lo que causa confusión. “Si en realidad este efecto - que se ha calculado para fuentes sincrotrónicas, puede confundirse con la corriente de expansión de Hubble, eso significa que la colocación de los púlsares en términos de su distancia, debe recalcularse por completo", a juicio de los defensores de la Cosmología del Plasma.

A la suma de estos factores, los cosmológos agregan que la paradoja de Olbers no se da en su planteamiento, en razón que la paradoja asume que la única manera de observar el Universo es mediante la radiación visible, lo cual no es cierto pues debe contemplarse que las emisiones se dan en todo el espectro electromagnético y sólo cuando una estrella radia en la parte visible es posible verla; pero aunque no se la pueda observar está presente, sólo que radiando en otra parte no visible del espectro.

En 1996, nuevamente el físico Eric Lerner plantea que el Big Bang con todas sus reformulaciones exige como requisito para ser cierto:

a) Homogeneidad a gran escala pero resulta que el Universo se revela más y más inhomogéneo, con estructuras tan enormes que no es posible que se hayan formado en 10 - 20 mil millones de años.
b) Inflación al inicio del Universo; pero ello obliga a que la densidad de la materia fuese de 50 a 100 veces mayor que la observable, lo que es contradictorio.
c) Materia oscura; que aparte de ser una sustancia mítica, de existir habría expelido las galaxias a velocidades 10 veces mayor que las observadas.
d) Mayor abundancia de helio, deuterio y litio en el Cosmos; pero que las últimas mediciones demuestran no ser ciertas y más específicamente respecto al helio.
e) La existencia de texturas y de cordones cósmicos, pero que la creación de estas son especulaciones que abandonan el campo de la física para convertirse en un argumento típico de la escolástica medioeval.

En fin que con sus objeciones, Lerner prácticamente canta el responso” (¿antes de tiempo?) a la Teoría del Big Bang en su libro “El Big Bang Nunca Existió”. Independientemente de si Lerner - en este caso - u otros detractores del Big Bang tienen razón, lo cierto es que si efectivamente esto haya sido así o no, la cosmología del Big Bang se sostiene como la principal explicación cosmológica de origen científico y aunque las explicaciones que se argumentan a su favor tienen más y más pautas de desborde de lo creíble, la verdad es que desde que Einstein inicia su proceso revolucionario - en todo sentido - toda la física muestra esa faceta y en especial la Cosmología, cuando a los planteamientos sorprendentes sacados de la Relatividad se une a los más esquivos e increíbles tomados de la Física Cuántica.

Los argumentos de la cosmología del plasma son simples; mientras que los argumentos de la cosmología del B.B. se han ido haciendo más y más complicados. Esto no significa que las primeras sean ciertas y los segundos no; simplemente permiten recordar que así como la cosmología relativista evolucionista debió librar una dura batalla frente a la teoría del Estado Estacionario en el pasado reciente, todo parece indicar que podría avecinarse una nueva batalla de ahora frente a la Cosmología del Plasma.

¿ DE LO UNO A LO MULTIPLE ?

En diciembre de 1991 la prensa informa acerca de la verificación de un Congreso efectuado en Barcelona, España, destinado a definir la complejidad que resulta de la “Integración Convergente de Individuos” ( Que recuerda la frase de Parmenedis : de lo Uno a lo Multiple) A juicio del Director del Museo de Barcelona, y coordinador del Congreso Jorge Wasenberg: “Si este es el siglo del átomo y del cosmos, el próximo será el de la complejidad: tenemos dos grandes problemas de la complejidad: uno es cómo se adapta un sistema a una perturbación y otro cómo hemos pasado de las partículas elementales a algo material (el ser humano capaz de escribir el Quijote.

Y Wasenberg se pregunta: ¿Qué ha hecho que la materia se haya complicado tanto? ¿Se debe a la combinación de las leyes que conocemos o se trata de leyes nuevas?”. Matemáticos, físicos, biólogos y ecólogos, discutieron si es posible encontrar una teoría o unas leyes generales que se puedan aplicar -cada uno en su campo- para explicar la complejidad, el funcionamiento de sistemas de miles o de millones de variables interrelacionadas entre sí de manera que al alterar una cambian las demás.

Gregory Chaitin, matemático estadounidense del Centro Thomas Watson de IBM en Nueva York, explicó que “no sólo hay azar y complejidad en los organismos vivos formados por millones de células y que han recorrido miles de opciones en el camino de la evolución, así como en los ecosistemas o en el comportamiento humano, sino también en el corazón mismo de las matemáticas, considerando hasta ahora dominio absoluto de la sencillez y la exactitud.” Por su parte, en opinión de Waenberg, “el prestigio de la física hasta ahora se debe a que ha perseguido la sencillez que le ha permitido “matematizar” los problemas. “Sin embargo - dice - la biología entra en la complejidad porque no tiene más remedio, porque la materia viva es compleja, y por ello esta ciencia no ha alcanzado el rigor y la potencia de la física”.

Los científicos prosiguieron su análisis en la siguiente línea: ¿en qué se parece un copo de nieve, una colonia de baterias, la corriente del golfo, el sistema inmunológico humano, una figura geométrica creada por el ordenador y un contralor de vuelo de Leningrado? Sencillamente en que son sistemas complejos. Los participantes en el congreso celebrado en Barcelona no tienen aún una respuesta para explicar esos sistemas, pero se han puesto de acuerdo en la pregunta que necesitan hacerse para empezar a trabajar en un tema que gana importancia día a día: ¿Qué es un individuo?

Lee A. Segel, experto en matemática aplicada del Laboratorio de Los Alamos (EE.UU.), utilizó el “ejemplo del controlador de vuelo de Leningrado” para explicar la importancia de entender las partes que componen un sistema antes de abandonarlo globalmente: “El contralor con experiencia era capaz de manejar eficazmente una enorme cantidad de información (horarios, escalas, vuelos) del tráfico del aeropuerto de Leningrado porque había empezado a trabajar cuando había muy pocos aviones y la complejidad había crecido a lo largo de los años. Pero cuando llegó un nuevo controlador, un joven muy brillante no pudo hacerse cargo del control del aeropuerto sin ayuda de ordenadores porque se encontró de golpe con un sistema muy complejo que no podía abarcar inmediatamente”.

Segel insistió en la importancia de la jerarquía para definir los sistemas complejos, pero físicos, matemáticos y biólogos tienen diferentes conceptos de lo que es un individuo jerarquizado en un sistema y señaló: "El objetivo de la reunión científica ha sido avanzar hacia una teoría de la complejidad que permita comprender esos sistemas formados por miles de individuos y cuyo comportamiento es diferente de cada uno de los individuos que lo componen”.

El Coordinador del Congreso en referencia dirige también una serie de libros bajo el título “Metatemas”, para la Editorial barcelonesa Tusquet y a raíz de ese Congreso se publicaron varios libros, uno de los cuales: “La Tercera Cultura” dirigido por el editor científico John Brockman de Nueva York, se analiza ampliamente en un próximo capítulo, porque abre una interesante y nueva faceta al proceso de conocimiento.

LOS ENIGMAS IRRESOLUTOS

Esta breve revisión obviamente no agotan la crisis del conocimiento que cobra relevancia en la década, permite concluir que conforme avanza el conocimiento aumentan las dudas, pues nuevas pautas de los problemas que se van solucionando afloran a la superficie. En el campo de las Cosmología - como queda demostrado con las descripciones del Universo y del tema obsesionante de su posible origen el panorama cambia cada cierto tiempo. En el pasado los hitos que marcan la trayectoria del conocimiento muestran un espaciamiento que se medía en siglos; luego en décadas y hoy el “rompecabezas cósmico” debe irse armando prácticamente por años. Y sin especulaciones podría afirmarse, que casi mes a mes el cúmulo de informaciones y datos crece exponencialmente. En el pasado reciente sólo las teorías con cierta clase de verosimilitud se exponía al gran público, luego de pasar por las “horcas caudinas” de los especialistas. En la actualidad, con la gran exposición de los científicos a la gran prensa, ésta, ávida de noticias para llenar las necesidades de los consumidores de mercados autoalimentados, saca a la luz pública planteamientos apenas en proceso de elaboración.

A partir de la mitad de los ochenta las “últimas nuevas”, en Cosmología y áreas conexas nos irán mostrando un caleidoscopio que si bien parece hiperrealista, en el fondo debe asentarse sobre una verdad sencilla para la cual aún no se encuentra la clave.

Para quienes siguen de cerca los avances de la ciencia, pareciera a ratos que se tiene la verdad en las manos; pero rápido se escapa y que de pronto al ahondar ya no se sabe nada de lo que se creía conocer todo. Ello es simplemente el resultado de la expansión del conocimiento y; la especialización para su abordaje y en mucho la inseguridad psicológica que caracteriza la llegada de la década de los noventa en la coincidencia de que en ella irán a confluir la caída de ideologías, el desmembramiento de Estados - Naciones, la pérdida de valores tradicionales, la recomposición de las sociedades civiles, la pérdida en la credibilidad de las instituciones rectoras; así como una confrontación entre el “cientifismo” y el “deismo”; quedando - a duras penas en pie algunos bastiones del “teismo” a lo que se auna la cercanía de un nuevo siglo para el cual se tejen muchas ilusiones, pero en medio de la acentuación de crisis que para los teóricos sociales futuristas no es más que el advenimiento de un nuevo orden universal, que por ser nuevo y con características planetarias, apenas se esboza en el horizonte. Así, quienes lo perciben sin analizarlo sólo ven aristas y pautas al parecer contradictorias y desconcertantes; sin percatarse todavía que esa nueva globalidad que apenas se delinea es anticipio de una diferente comprensión y solidaridad de la Humanidad.

Igual en Cosmología, quizá con el agravante de que los nuevos modelos por su abstracción van quedando reservadas - por ahora - a mentes especializadas con conocimientos en física y matemáticas y aún ésta, como lenguaje, carece del instrumental para expresarse y habrá que esperar al diseño de nuevas herramientas matemáticas para ir uniendo los aparentes “cabos sueltos” del hilo o la cuerda que une las piezas del rompecabezas cósmico.

UN UNIVERSO DE DUDAS

A finales de la década de los ochenta, los cosmólogos plenos de optimismo casi daban por sentado que cerca del año 2000 el hombre tendrá resuelto el problema del origen del Universo y de sus transformaciones y por ende su futuro lejano.

La fe en el conocimiento científico “puro” obliga a refutar o aún a menospreciar todo planteamiento de orden metafísico que se reputa de elucubraciones propias de los dominios de la filosofía que han contaminado la asepsia del altar científico.

Sin embargo, a la vez que en estos años se comienza a establecer un muro entre cosmología y metafísica para dejar la primera como una disciplina autónoma; por estas mismas fechas los hallazgos observacionales logrados gracias al refinamiento instrumental y al apoyo de las computadoras comienza a resquebrajar los cimientos del último modelo del Universo; “oficialmente” aceptado por la mayoría de los cosmólogos, porque los resultados ponen en duda planteamientos que iban solidificándose y calzando entre sí (aunque a veces, a costa de “forzar” el modelo como se analiza en el próximo capítulo).

A la vez en otros campos de la ciencia - sobretodo aquellos que por su relación directa con los fundamentos de la cosmología, guardan mayor relación con ella, se comienzan a formular hipótesis nuevas que ponen en entredicho verdades ya prácticamente “consolidadas”.

Si todas estas formulaciones teóricas y hallazgos concretos se ponen juntos, arrojan como resultado la siembra de dudas donde antes - escasos años antes - se tenía ya un modelo de Universo bastante aceptable y en vez de ello surge todo un Universo de dudas basado en nuevas ideas, cuyo valor dependerá no tanto de lo espectacular de sus planteamientos o de los títulos llamativos que les acompañan, sino de otros parámetros más duraderos.

Durante los años anteriores a los ochenta era preciso recurrir a libros, revistas y otras publicaciones especializadas para conocer lo que ocurría en el complejo y cada vez más cambiante mundo de la ciencia, pero, en la década de los noventa por lo contrario, gracias a la gran divulgación dada por los medios de comunicación de masas a los aspectos más relevantes de los descubrimientos por parte de satélites, laboratorios espaciales y sondas espaciales, irrumpe el periodista científico en los mundos de la cosmología; la biología; la astrofísica y la física subatómica. Esto ha obligado a que se aumenten los “press release” (entregas de prensa), por parte de agencias oficiales, entre las que sobresalen las notas provenientes de las agencias de prensa AP, UPI, TASS,EFE, REUTER, IPS, INTERCO, que se adentran en este cosmos habitado por científicos reacios a dar declaraciones sobre sus avances, que reservan para eventos especializados o por otros que, ávidas de ser noticia, adelantan criterios poco madurados y aún en etapa de elaboración teórica o comprobación empírica.

El hecho es que poco a poco un mundo cerrado se abre y los años últimos ha sido pródigos en noticias “duras” - como llaman los periodistas a reportajes y entrevistas sobre acontecimientos “del momento”, aunque se trata de hechos acaecidos miles de millones de años atrás. Dado que la prensa suele titular mal los textos científicos; y entresacar textos para aumentar el tono sensacionalista, esto ha obligado - a su vez - a confeccionar boletines de prensa oficiales para tratar de evitar esta deformación noticiosa. Los boletines oficiales provenientes de los países que destacan en labores de investigación astronómica suelen confeccionarse por la NASA (EUA), CNRC (Francia), mientras que las instituciones inglesas recurren a REUTER y las italianas a ANSA, y de éstas cuatro fuentes principales emanan con periodicidad las explicaciones del avance investigativo. Como aún esos boletines de prensa deben fidelidad a los esfuerzos de los entes oficiales de sus respectivos países, los adelantos observacionales se suelen acompañar de especulaciones y para aventurar hipótesis. Ya en la década de los noventa, cada mes y aún cada semana, pueden darse a conocer nuevos hallazgos observacionales que obligan a un permanente replanteo de las verdades con las cuales se construyen los modelos del Universo, quienes se guían únicamente por este tipo de publicaciones albergan un razonable Universo de dudas.

Los planteamientos públicos de ideas en el campo de la cosmología - al igual que sucede en otras áreas relacionadas con el origen, desarrollo y destino de la vida en sus diversas manifestaciones - ocasiona el afloramiento de preocupaciones por la forma en que los conceptos fundamentales que le dan sentido a la vida, son manejados por los propios investigadores, por los divulgadores de sus ideas y por la gran prensa. Resulta conveniente, entonces mencionar algunos eventos mundiales en que se trata con seriedad este tema de la objetividad científica:

1.-Uno es el simposio verificado en octubre de 1992 por la Cátedra de periodismo científico del Instituto Tecnológico de Massachusetts (MIT) en el que se debatió sobre la forma en que los medios presentan las noticias sobre ciencia ya que habiéndose demostrado que: "...era altamente visible un interés especial por los desastres y la controversia, igualmente su interés en señalar los aspectos negativos de las investigaciones".

2.-El segundo es el lanzamiento en octubre de 1993 de la Encíclica “Veritatis Splendor” (El Esplendor de la Verdad) mediante la cual el Papa Juan Pablo II expresa la gran preocupación por "...la mistificación y la confusión que resultan del manejo inadecuado - y por ello apartado de la ética social - de opiniones que sin tener la profundización necesaria se presentan como si fuesen verdades absolutas".

3.-El tercero es el llamamiento que hace el Secretario General de la ONU, Federico Mayor Zaragoza al cumplirse 500 años del “descubrimiento” de América, cuando expresa que la única forma de impedir la manipulación de la información, cualquiera que sean sus fines, es garantizar una especie de “glasnot” (transparencia pública) tanto contra los desmanes de la ciencia, como de los medios informativos.

4.-El cuarto es el criterio expresado por el editor técnico de la revista Sky & Telescope, el astrónomo Joshua Roth, quien dice: “Los astrónomos comprometidos en trabajos lentos, que requieren de gran paciencia y prolongados términos para su conclusión, son obligados (por diversas circunstancias), a dar a la publicidad hallazgos que si bien son excitantes y espectaculares, son aún parciales e inconclusos.”

La preocupación del hombre en todas las épocas por conocer la verdad ha coincidido con la ocupación de determinados intereses en propagar “su verdad”. Así como el medioevo conoció la persecusión en contra de la verdad y la imposición de ésta por parte de la Iglesia Católica, en estas fechas los que tratan de imponerla son algunos científicos que desbordan sus campos de acción o con afirmaciones que causan confusión; los comunicadores que para hacer sus notas sobre hechos científicos de tal manera que sean aceptadas para la publicación, agregan comentarios sensacionalistas para tener la oportunidad de ver publicados sus artículos, pues deben competir en el “mercado de la noticia” con otros temas sensacionales o de último momento, lo que daña la objetividad; y los propietarios -a veces- o los directors de medios -otras veces- que valoran más las ganancias quela verdad, haciendo realidad aquella frase que dice que "frente a la libertad de información vale al libertad de empresa".

A su vez este intento del Papa Juan Pablo II es altamente polémico, pues a juicio de algunos parecerá un intento por imponer una verdad dogmática, y una forma de evitar la proliferacción de muchas verdades. Tal es el criterio - por ejemplo del psicofilósofo francés Lacan quien afirma: “es necesario no caer en la trampa de los discursos que buscan el “ideal de la totalidad, porque ello es falso, equívoco, pues los únicos reductos reales son aquellos que se ocultan en lo fragmentario, diverso y plural”. Para Lacan existen cuatro tipos de discursos para expresar el conocimiento o para buscar la verdad:

1.- “El metafísico, discurso del Amo por excelencia, que señala que hay verdad total y cada cosa halla su sentido en el Todo.

2.- El nominalista, propio de las corrientes basadas en la experiencia, para el cual no hay verdad y el mundo es una ilusión humana.

3.- El hermeneútico, que afirma un texto originario de todas las verdades escrito por un Autor Divino.

4.- El analítico, que afirma la verdad parcial del mundo y el inconsciente como eje de la actividad humana, una actividad que rechaza dominar y sufrir la dominación”.

Sin embargo en la época actual - como en todas las épocas - el inconsciente colectivo (si es que existe) o cada quién en lo interno de su espíritu, busca una seguridad que sólo encontrará cuando las concepciones del Universo cuadren con su propia visión de éste y en esa línea la ciencia no puede cejar en el empeño, aunque corra - como siempre - el gran riesgo de causar confusiones en su búsqueda de la verdad.
A tal punto la complejidad del conocimiento acarrea profundas implicaciones en todas las órdenes de la vida humana y - por supuesto - en el entendimiento y descripción del Universo.Y en los próximos capítulos veremos cómo acometen los cosmólogos el grande reto de descifrar el Universo, mientras desechan teorías y abrazan otras ,a la vez que- infatigables los procesos de verificación se llevan a cabo día a día y noche tras noche y en las computadoras de nueva generación se efectúan cálculos a toda velocidad para hacer simulaciones de modelos de universo o de fases de este, con lo que la Cosmología avanza a pasos vertiginosos

0 comentarios:

Publicar un comentario

Visite

Ultimos artículos de VERDAD-BLOG

Visite Directo Blog