¿Puedes hacer explotar un globo con un espagueti?

¿Has intentado alguna vez hacer explotar un globo con un espagueti delgadito? Pero no de cualquier manera, inténtalo sin sujetar el globo. Pon el globo encima de una mesa y, repito, sin sujetarlo, acércale un espagueti y toca el globo con él, presiónalo y observa qué es lo que sucede. El globo se aleja del espaqueti como si le tuviese miedo, pero de explotar nada de nada. Va a ser que no.

Bien, ahora inténtalo de otra manera. Agarra con fuerza el globo con una mano y no lo dejes que se mueva. Acércale el espagueti y presiona de nuevo el globo con la punta del fideo. ¿Qué sucede? ¡Sorpresa! El espagueti se rompe y el globo sigue sin explotar. ¿Qué es lo que falla?

No sé a vosotros pero a mí cuando me enseñaban física en el colegio y en la universidad, nunca me planteaban dilemas como el expuesto en los dos párrafos de más arriba. Más bien, me lo daban todo masticado, nos enunciaban el problema y a continuación nos daban la solución masticada, sin esfuerzo. Nunca nos dejaban enfrentarnos al reto que supone encontrarse con un problema cuya solución desconocemos para que nosotros mismos intentemos hallarla, sorteando los inconvenientes y las dificultades. Es decir, la enseñanza y el aprendizaje se centraban (y aún es así, mayoritariamente) en la memorización y reproducción, más o menos fiel, de lo que el profesor o el libro te decían, jamás en la adquisición de habilidades, de actitudes, de competencias, saber desenvolverse y enfrentarse a las dificultades, a la falta de información explícita.

Últimamente estoy intentando llevar a cabo una remodelación radical de mi forma de impartir clases en la facultad. Intento en lo posible saltarme los formalismos hasta que son necesarios. Primero les propongo a mis estudiantes una situación real o ficticia y luego les pido que averigüen algo a partir de información que ellos mismos pueden recopilar, deducir o incluso estimar con razonamientos simples. Suele costarles y tienen la sensación de que aprenden poco. Pienso que se equivocan y espero que a la larga, la técnica proporcione resultados.

La situación planteada al principio del post es muy válida para ilustrar lo que quiero decir. ¿Cuál es la solución al enigma? ¿Por qué en ninguno de los dos casos el globo explota? ¿Qué causas aducen los estudiantes a la hora de emitir una respuesta? ¿Y vosotros, queridos lectores, qué diríais?


Aunque no puedo estar cien por cien seguro de cuáles serían vuestras respuestas, sí me atrevo, en cambio, a proponer que serían parecidas a esta: en el primer caso, el globo no explota porque, al pesar muy poco y moverse por no sujetarlo, el espagueti no puede ejercer sobre él una presión o fuerza suficiente para romperlo; en el segundo caso, sí podemos ejercer esa presión elevada pero el espagueti es más frágil aún que el globo y por eso aquel se rompe antes. ¿Tengo razón? ¿Van por ahí los tiros?

Bien, no andáis desencaminados. No obstante, pongamos a prueba vuestras hipótesis y razonamientos. Al fin y al cabo, el vilipendiado "método científico" funciona así a veces. Si nuestra explicación es válida debería suceder que, empleando un "arma" distinta de un espagueti pero no tan frágil, el globo explotase. Probemos con una aguja de tejer, o con una varilla de madera de las que se suelen utilizar para preparar brochetas. ¡Voilà! El globo estalla con un sonoro estruendo. Parece obvio que tanto la aguja como la varilla poseen una resistencia a la fractura muy superior a la del espagueti y por eso no se rompen, logrando hacer lo propio con el globo. Problema resuelto, ¿verdad?

Pues no, lo cierto es que la solución planteada en el párrafo anterior es incompleta. ¿Y por qué? Elemental, mi querido Watson. Porque existe una forma de hacer explosionar el globo con el espagueti. No es cuestión de que el globo tenga menos resistencia a la rotura que la aguja o varilla o que tenga más resistencia que el espagueti. Me explico, resulta que la segunda ley de Newton, que casi todos recordaréis repitiendo aquella cantinela de "la fuerza es la masa por la aceleración", se puede expresar y entender de otra forma, a veces llamada ley del impulso mecánico - momento lineal. ¿Y qué dice esta ley? En términos sencillos, afirma que modificaremos la velocidad de un objeto en una cantidad fija haciendo, equivalentemente, una de estas dos cosas: aplicando a dicho objeto una fuerza muy grande durante un tiempo pequeño o aplicando una fuerza pequeña durante un tiempo muy grande. Ejemplos prácticos de esto son: el airbag de un vehículo (la fuerza del impacto recibido durante una colisión se reduce al hacer que el tiempo que dura el impacto se prolongue mediante el uso de una bolsa de aire; si la bolsa fuese rígida, el tiempo de impacto se acortaría mucho y la fuerza ejercida se incrementaría, produciéndose daños y lesiones serias; no habría diferencia entre usar airbag o no hacerlo); el puenting (la fuerza que la cuerda ejerce sobre los pies se reduce enormemente debido a que es deformable, se estira durante la caída, haciendo que el tiempo se prolongue; si la cuerda fuese rígida, el tiempo de deformación sería muy pequeño y, por tanto, la fuerza ejercida sobre el tobillo aumentaría enormemente, pudiendo ocasionar lesiones muy serias o incluso la amputación); los colchones utilizados por los bomberos para rescatar a personas en edificios altos; y los guantes de los boxeadores (protegen tanto la cara del contrario como la mano del boxeador, haciendo que la fuerza experimentada sea menor; son como airbags para las manos que evitan fracturas que de otra manera serían muy comunes).



Volvamos a nuestro espagueti y nuestro globo. La forma de hacer explotar este consiste, pues, en aplicarle una fuerza suficientemente grande durante un tiempo tan corto que no sea preciso siquiera sujetar el globo con una mano. Además, esa fuerza tan particular no debe superar el límite de rotura del espagueti. ¿Qué podemos idear para alcanzar el objetivo propuesto? Nada menos que un artilugio inventado hace siglos: una cerbatana. En efecto, coged un tubo suficientemente largo y estrecho para que podáis introducir el espagueti dentro. Apuntad hacia el globo y soplad fuerte. ¿Qué sucede? ¿Explota el globo? Oooooohh, no. No ha explotado. A ver si va a ser mentira todo lo que os he contado y no es más que un sucio ardid para que leáis algo de física elemental. No, lo cierto es que no, no soy tan vil (aunque podría fácilmente, si me lo propusiese). Veréis, lo que pasa cuando introducís el espagueti delgadito en la cerbatana es que la física de fluidos os juega una mala pasada. El espagueti es demasiado fino y casi todo el aire que expulsáis por la boca sale por el extremo opuesto de la cerbatana, sin afectar prácticamente al fideo. Podéis solucionar esto fácilmente: humedeced un poco la parte central del espagueti y rodeadlo con un trocito de algodón, un trapo o similar (cuidad que no sea demasiado grueso, lo ideal es que haga que ahora el espagueti toque en las paredes interiores de la cerbatana). Si ahora sopláis, volveréis a escuchar el estruendo de la explosión del globo al haberle sacudido un espaguetazo... ¡Física rules!


Fuente original:
Gorazd Planinsic and Eugenia Etkina, Popping a balloon with spaghetti The Physics Teacher, Vol. 53, 309 (2015)


Made in Spain: cuando inventábamos nosotros (reseña)

Hay dos reglas que me autoimpongo cuando escribo la reseña de un libro y son éstas:

1.- El libro me lo han tenido que regalar, bien su autor/a, bien su editorial.

2.- El libro tiene que haberme gustado.

Si cualquiera de estas dos normas no se cumple, prefiero no reseñar el libro, aunque sea por deferencia hacia su autor/a o la editorial, para no hacer publicidad negativa.

En el caso particular que me ocupa en esta ocasión, tengo que decir que Made in Spain, no solo me ha gustado sino más bien me ha encantado, me ha fascinado, me ha maravillado y me ha sorprendido muy gratamente. Las horas que he empleado en su lectura se me han pasado volando y en cada página que leía saltaba una nueva sorpresa a cada cual más sorprendente. Pero es que, además, Made in Spain está escrito por un buen amigo, una excelente persona y un escritor al que admiro: Alejandro Polanco Masa (alias @alpoma). Cargará para siempre en mi conciencia no haber leído este, su libro, antes, pues a fuerza de ser sincero debo reconocer públicamente que el bueno de Alejandro me lo regaló hace ya unos cuantos meses, cuando acababa de salir calentito del horno de la editorial Glyphos Publicaciones. Lo fui aparcando porque, afortunadamente, soy una persona que puede presumir de tener una lista de lecturas pendientes tan extensa que, inevitablemente, unos deben ir antes que otros y siempre me cuesta horrores decidirme por el siguiente. Te pido mis más humildes disculpas, Alejandro.

En fin, después de estas breves pero sinceras disculpas y muestras de arrepentimiento, voy con lo verdaderamente importante: ¿de qué trata Made in Spain? Pues muy sencillo. Se trata de una extensa recopilación (más de 400 páginas) de detalles biográficos, junto con sus logros más destacados, de algunos de los más grandes inventores, científicos, ingenieros, que ha dado nuestro país a lo largo de la historia, desde el siglo XVI hasta el siglo XX, aproximadamente. Si solamente se quedase en eso el libro, ya tendría suficiente mérito, pues la labor de investigación requerida para llevar a fin tal misión no es nada despreciable. No obstante, Alejandro no se conforma con elaborar breves biografías, ni mucho menos. A lo largo de todo el texto, dichas biografías vienen acompañadas de descripciones, más o menos detalladas, de los inventos de sus autores, del papel que jugaron en la sociedad de la época que les tocó, de las interrelaciones entre los propios científicos/inventores y la política, las administraciones, los gobiernos, el público. Pero, por encima de todo, y este detalle es el que más me ha gustado, es que casi todos los personajes que desfilan por las páginas del libro tienen una característica en común: siempre han sido ignorados, cuando no olvidados o incluso maltratados por la historia, hasta tal punto que la gran mayoría de ellos resulta desconocida para nosotros.

Made in Spain: cuando inventábamos nosotros está organizado por bloques temáticos: los inventos terrestres (vehículos a vapor, los primeros ferrocarriles españoles, el Canal de Castilla, los motores Barreiros, etc.); los inventos aéreos (autogiro, helicóptero, la escafandra estratonáutica, la aviación a reacción y supersónica); los descubridores de elementos químicos (wolframio, platino, vanadio); las aventuras marítimas (primeros mapas de América, los primeros descubridores españoles de la Antártida, el hidrotrén, el marmotor, el submarino, etc.); la telegrafía óptica, las pilas, la calculadora, el telégrafo eléctrico, la primera línea telefónica en España, los pioneros de la radio, la mujer que predijo el libro electrónico, la pluma estilográfica, la invención de la primera lengua universal, la célebre expedición Balmis para la vacunación masiva contra la viruela, el precursor de la toxicología, el inventor del laringoscopio, los primeros aparatos de rayos X, la anestesia epidural, la fregona; los observadores del cielo (el padre de la meteorología en España, los primeros astrónomos célebres españoles, y muchas otras cosas increíblemente interesantes. A todo lo anterior hay que sumar un último capítulo fantástico, asombroso, que no os desvelaré porque es realmente como para seguirle la pista y escribir un libro entero a partir del mismo. Merece muchísimo la pena.

El libro de Alejandro me ha dejado sensaciones contradictorias. Por un lado, he sentido una alegría inmensa por haber descubierto y aprendido un montón sobre muchísimos grandes personajes que ha dado este país nuestro, tan hecho unos zorros, y que no conocía en absoluto (hay algunos otros que sí nos son familiares, aunque quizá desconozcamos más acerca de su vida y obra de lo que creemos, como Juan de la Cierva, Leonardo Torres Quevedo, Juan de la Cosa, Isaac Peral o Narciso Monturiol. Por otra parte, he experimentado tristeza y amargura infinitas por comprobar, una vez más, que España ha sido y es un país destructor de inteligencias, maltratador de ingenios, erosionador de talentos. La falta de interés, la pertinaz ausencia de una cultura científica por parte de políticos y gobernantes y su estrechez de miras, han llevado a lo largo de nuestra historia al fracaso de innumerables ideas brillantes, pioneras, geniales, y al olvido de sus igualmente brillantes y talentosos autores, quienes se adelantaron a los descubridores e inventores que actualmente figuran en los tratados de historia y que son reconocidos universalmente. De haber nacido en otro país, a buen seguro, sus nombres serían recordados hoy. No me cabe la menor duda. ¡¡Gracias, Alejandro!!


¿Cuántos hombres y tiempo se emplearon en la construcción de la Gran Pirámide?

La Gran Pirámide de Keops fue construida para que sirviera como tumba del faraón egipcio Khufu, de la cuarta dinastía. Su imponente aspecto a simple vista tiene mucho que ver con sus descomunales dimensiones físicas, a saber, 139 metros de altura (originalmente fueron 146,7 metros) y una base cuadrada de 230,4 metros de lado. Si descontamos los espacios interiores: una galería, los pasadizos de ascenso y descenso, así como las dos cámaras mortuorias de que consta, se puede considerar, de forma bastante aproximada, que la gigantesca estructura constituye un bloque macizo de piedra formada, básicamente, por caliza y granito.

El historiador griego Herodoto, quien vivió durante el siglo V antes de Cristo, estimó que la construcción de la Gran Pirámide requirió el esfuerzo de unos 100.000 hombres durante 20 años (a los que habría que añadir otros 10 años más invertidos en la preparación del terreno del asentamiento definitivo). Veamos si esta estimación de Herodoto tiene sentido, desde el punto de vista de la física que conocemos.

Una forma sencilla de calcular la energía necesaria para llevar a cabo una construcción consiste en aplicar conocimientos básicos de física de bachillerato. Si hacemos un poco de memoria o nos da por repasar lo allí aprendido, sin más que dirigirnos a la lección del trabajo y la energía potencial podremos comprobar rápidamente que una partícula (un objeto ideal sin tamaño) de masa M que elevamos desde el suelo hasta una altura H poseerá una energía potencial gravitatoria de magnitud M g H (donde g = 9,8 m/s2 es el valor de la aceleración de la gravedad en la superficie terrestre). Cuando el objeto considerado ya no es una partícula, sino un cuerpo extenso, con tamaño y forma, la expresión de la energía potencial anterior puede modificarse ligeramente sustituyendo la H por la altura del centro de masas del cuerpo respecto al suelo (el centro de masas es el punto donde puede considerarse concentrada toda la masa del objeto). Así, para nuestro caso de un cuerpo en forma de pirámide, la energía potencial gravitatoria se puede calcular mediante el producto M g H/4, siendo M la masa total de la Gran Pirámide y H su altura total (146,7 metros). Pues bien, y esto es lo interesante, la física nos dice que este valor de la energía potencial ha de coincidir con el trabajo mecánico llevado a cabo en la construcción del gigantesco edificio.
 
Si habéis prestado atención, no habréis tenido dificultad ninguna para daros cuenta de que el cálculo anterior no se puede llevar a cabo sin conocer el valor de la masa de la pirámide. ¿Cómo obtenerlo? Muy fácil, tanto que casi me da vergüenza explicarlo y que penséis que os estoy tratando como incompetentes. Bien, si recordáis que un poco más arriba os dije que podíamos considerar la Gran Pirámide como un imponente bloque macizo de caliza y granito, entonces ya casi está todo dicho, pues la masa es el producto de la densidad media (unos 2600 kg/m3 para la caliza y entre 2700-2800 kg/m3 para el granito) por el volumen (el volumen de una pirámide es el producto del área de su base por su altura y dividido por 3). Así, se llega a que el valor de la energía potencial o trabajo mecánico realizado para construir la Gran Pirámide de Keops asciende a los 2,5 billones de joules o, equivalentemente, unos 600 millones de kilocalorías. ¿Cuántos hombres y durante cuánto tiempo trabajando se necesitarían para satisfacer este enorme requerimiento energético? ¿Pudieron emplear esta energía los trabajadores egipcios? ¿Cuántas kilocalorías (kcal) de alimento ingerían diariamente? ¿Qué rendimiento energético posee un cuerpo humano? Vayamos por partes.

En nuestra época, un hombre necesita un promedio de unas 2.500 kcal diarias, a las que hay que añadir otras 500 kcal más si desarrolla un trabajo físico continuado. En cambio, es poco probable que hace más de 4.000 años la ingesta calórica de los egipcios, teniendo en cuenta factores tales como la disponibilidad de alimentos y el clima cálido, superase las 1.500 kcal. Más aún, un ser humano actual es capaz de invertir un 20 % de la energía que consume en trabajo físico, esto es, unas 500-600 kcal. Por el contrario, un egipcio que viviese hace 40 siglos difícilmente rendiría más allá de un 10 %, más o menos, unas 150 kilocalorías. Así pues, para alcanzar un trabajo total de 600 millones de kilocalorías se necesitarían los esfuerzos conjuntos de 4 millones de hombres por día de trabajo o, equivalentemente, 540 hombres trabajando sin parar durante 20 años y 360 días cada año. Esto es un factor 185 menor que la cifra estimada por Herodoto.

¿Estaba chalado Herodoto? ¿No tenía ni idea de matemáticas y utilizó en todo momento la "cuenta de la vieja"? Pues lo cierto es que no lo sabemos y tampoco es tan importante porque todo lo anterior no tiene otro fin que veáis que la física que alguna vez estudiasteis o deberíais haber estudiado sirve para cosas tan absolutamente inútiles como esta. No obstante, os diré que otros autores contemporáneos, asimismo, han llevado a cabo estimaciones similares y han obtenido valores también alejados de los proporcionados por Herodoto. Por ejemplo, Illig y Löhner sugieren 6.700 trabajadores y 10 años de trabajo; Lehner propone 20.000 hombres y 20 años; Mendelssohn va más allá e incluye en su cálculo la estacionalidad y el trabajo total, no solo el llevado a cabo para montar los bloques de piedra, y así llega a una cifra de entre 50.000 y 150.000 hombres afanados durante 100 años.

¿Cómo puede afinarse un poco más nuestro cálculo inicial para que las cifras del insigne historiador griego y los otros autores no difieran tanto de la nuestra? Al fin y al cabo, nuestra estimación es equivalente a haber cogido un solo bloque cuyo peso es idéntico al de la Gran Pirámide y haberlo elevado verticalmente hasta una altura de 36,7 metros (la cuarta parte de la altura total de la pirámide, los citados 146,7 metros). ¿Qué simplificación, quizá demasiado restrictiva, incluye dicho cálculo? Pues nada menos que haber ignorado la fricción, el rozamiento, las pérdidas energéticas. ¿Podemos incluirlas, de alguna manera? Pues sí. ¡¡Atentos!!


Como no me quiero apartar ni desviar de la física de bachillerato, voy a ir un poquito más allá del primer cálculo, el relacionado únicamente con la energía potencial gravitatoria adquirida por nuestro bloque de piedra. Pensemos en uno de los modelos más utilizados en los cursos de física elemental: sí, me estoy refiriendo al puto plano inclinado. Imaginemos que subimos por dicho plano un bloque de masa idéntica a la de la Gran Pirámide y que lo hacemos arrastrándolo hasta una altura de 36,7 metros sobre el suelo (esto se hace para que las condiciones sean equivalentes a las de nuestro primer cálculo). De esta manera, las pérdidas energéticas vendrán impuestas por la fuerza de fricción entre el bloque de piedra y la superficie del plano inclinado. Si se resuelven las ecuaciones de Newton correspondientes al plano (no me detendré aquí a explicar esto, pero para los que seáis profesores puede constituir un ejercicio estupendo para vuestros estudiantes) se llega a que los requerimientos en hombres y años de trabajo dependen, como es obvio, de dos factores: el coeficiente de rozamiento entre el bloque de piedra y el plano (se puede coger para este un valor aproximado de 0,75 correspondiente al deslizamiento entre dos superficies, ambas de caliza) y el ángulo de inclinación del plano o rampa. Así, cuando este es de unos 10° la cifra estimada es de 5.700 hombres trabajando a lo largo de 10 años; para una pendiente de 5° se llega a 11.000 hombres en 10 años o, lo que es lo mismo, 5.500 hombres en 20 años. Como se puede apreciar, la mejora es de casi un orden de magnitud.

Por supuesto, todo lo anterior es, evidentemente, mejorable y el cálculo se puede refinar cuanto se quiera. Pero el objetivo de este post parece claro y no es otro que mostrar que incluso los conocimientos más básicos y elementales de física adquiridos durante nuestra época escolar nos pueden proporcionar las herramientas necesarias para acometer el estudio de todo tipo de disciplinas con las que probablemente no hubiéramos soñado en un principio.


Fuente original:
A C Tort, Work, gravitational energy and the Great Pyramid Physics Education, Vol. 50, 516 (2015)



El corazón de las tinieblas (reseña)

Jeremiah Ostriker y Simon Mitton son los autores de El corazón de las tinieblas, título homónimo de la inmortal obra de Joseph Conrad, aunque su relación sea absolutamente inexistente, como queda claro cuando leemos el subtítulo del primero, a saber, Materia y energía oscuras: Los misterios del universo invisible.

Y es que el libro de Ostriker y Mitton, efectivamente, es un libro de ciencia, de cosmología, concretamente. Sus autores son uno de los pioneros en la investigación de la materia oscura y destacado colaborador en trabajos y artículos científicos sobre el tema (Ostriker) y un prestigioso filósofo e historiador de la ciencia (Mitton), respectivamente. La edición española, de 2014, de la obra ha corrido a cargo de Ediciones Pasado y Presente.

El corazón de las tinieblas consta de nueve capítulos a lo largo de los cuales nos ofrece una perspectiva global, divulgativa acerca de las últimas investigaciones, misiones observacionales y análisis de datos en el campo de la cosmología, la ciencia que estudia el origen, evolución y futuro del universo en su conjunto. El libro está maravillosamente escrito, ordenado históricamente, haciendo fácilmente comprensible la trayectoria que ha seguido la cosmología, desde sus primeros tiempos modernos hasta los más recientes descubrimientos y sus audaces, en ocasiones, interpretaciones. Comenzando por Copérnico (el último de los cosmólogos griegos), Galileo y pasando por Newton y Herschel hasta llegar a Einstein y su teoría de la relatividad general, Ostriker y Mitton nos proporcionan la base teórico-observacional para posteriormente afrontar lo que constituye el auténtico núcleo del libro. Así, van desfilando poco a poco los nombres de los gigantes a cuyos hombros se han subido los cosmólogos actuales para poder ver más lejos y más claramente con ayuda de extremadamente sofisticados instrumentos como pueden ser el satélite COBE o el WMAP.

El descubrimiento inicial de que el universo estaba constituido, fundamentalmente, por galaxias; el primer modelo de Georges Lemaître en el que ya se proponía una especie de átomo primigenio como origen del universo y se predecía la contribución de, nada menos, la energía oscura; la ley de Hubble; el modelo de big bang; la nucleosíntesis; la búsqueda de candelas estándar con las que estimar de forma fiable las distancias interestelares e intergalácticas y en la que fue fundamental el trabajo de Beatrice Tinsley; la inflación; las enormes, originales, así como menospreciadas contribuciones de un genio como Fritz Zwicky, el auténtico "inventor" de la materia oscura; las curvas de rotación de las galaxias y los increíbles hallazgos de Vera Rubin, entre otros; y, finalmente, la eterna y pertinaz presencia de la célebre constante cosmológica o energía oscura, a partir de 1998. Todo lo anterior conduce de manera lógica a preguntas que hoy seguimos sin contestar: ¿qué es realmente la materia oscura? ¿Es la energía oscura la constante cosmológica o se trata de algo aún más extraño, como la quintaesencia o la energía fantasma? ¿Cómo se originaron las diminutas anisotropías primigenias que dieron lugar, tras el big bang, a las enormes estructuras (estrellas, galaxias, cúmulos, supercúmulos) que observamos en la actualidad? ¿Vivimos en un universo con la densidad de materia justa para que sea plano, como parecen indicar las más recientes pruebas observacionales?

Obviamente, las cuestiones anteriores no tienen, a día de hoy, respuestas inequívocas. No obstante, los modelos teóricos de que disponemos parecen querer obstinadamente coincidir con lo que observamos en el cielo, a medida que disponemos de instrumentos cada vez más precisos y sensibles. La ciencia continúa. La aventura no ha hecho más que empezar...


Siete escenarios apocalípticos improbables, pero… ¿imposibles?

Nadie sabe cómo comenzó el universo y, probablemente, tampoco la forma en que terminará, si es que tal suceso llega a suceder alguna vez. A pesar de todo el avance que han experimentado la ciencia y el saber que actualmente poseemos, lo cierto es que ninguna de las dos grandes teorías científicas más completas de las que disponemos en la actualidad, la relatividad general y la mecánica cuántica, tiene la respuesta. ¿De qué manera surgió todo lo que conocemos? ¿Realmente el principio de todo fue el evento que conocemos como Big Bang? ¿O es que hubo algo, fuese lo que fuese, antes de él? ¿Y si, ciertamente, existió ese algo, qué fue?

En la actualidad, los científicos están bastante de acuerdo en que la física actual adolece de la falta de una gran teoría unificada capaz de explicar de forma completamente satisfactoria los fenómenos que tuvieron lugar durante el nacimiento del universo, tal y como lo concebimos. La mecánica cuántica y la relatividad general antes aludidas no se muestran conciliadoras a la escala de los instantes primordiales. Es cierto que los teóricos llevan décadas desarrollando formulaciones alternativas a estos dos grandes modelos, como pueden ser la teoría de cuerdas o la gravedad cuántica de bucles, pero hasta ahora el nivel alcanzado resulta claramente insuficiente.

Sin el conocimiento teórico ni experimental de muchos fenómenos gobernados por las fuerzas de la naturaleza -léase interacción gravitatoria, nuclear (fuerte y débil) o electromagnética- se hace prácticamente imposible predecir con un cierto nivel de seguridad o fiabilidad qué pudo deparar el pasado o qué podría esperar en el futuro a nuestro planeta, nuestro sistema solar, galaxia e, incluso, a todo el universo en conjunto. Este artículo está dedicado a la descripción de un puñado de escenarios apocalípticos que, potencialmente, tendrían como consecuencia la aniquilación, total o parcial, de todo o parte de cuanto conocemos desde que surgimos como especie pensante.

Dejando deliberadamente a un lado la serie de acontecimientos que pueda haber tenido lugar o no antes del Big Bang (el modelo que cuenta con un consenso más amplio entre la comunidad científica en la actualidad), podríamos plantearnos la cuestión de si éste surgió a partir de lo que los cosmólogos denominan “decaimiento del vacío”.

Antes de nada quizá sea conveniente introducir una breve definición de vacío. En física cuántica el vacío es aquel estado en el que un sistema posee una energía mínima. A nivel de experiencias cotidianas esto se puede entender bastante fácilmente (siempre que estemos dispuestos a asumir, sin demasiadas pejiguerías, un nivel de rigor no excesivamente exigente). Imaginemos estar sentados en el carrito de una montaña rusa típica. Todos sabemos que el viaje comienza desde el punto más bajo de la sinuosa trayectoria, a nivel del suelo. Comenzamos a subir, poco a poco, hasta el punto más alto y, una vez allí, comienza el desenfreno y la diversión. Si imaginamos que la forma geométrica del camino que sigue el cochecito representa la energía de éste, el punto más alto del mismo posee la máxima energía y el punto de llegada (equivalentemente, el de partida) la mínima. Pero lo interesante está en el viaje. A medida que nos deslizamos frenéticamente por rizos, tramos rectos y curvas más o menos cerradas, vamos también pasando por otros puntos que no son totalmente estables, a diferencia del de llegada. Es precisamente este punto el que conocemos como mínimo absoluto y a los otros como mínimos relativos. Pues bien, cuando un físico habla de vacío se refiere al mínimo absoluto de la energía de un sistema; los otros mínimos se conocen con la denominación de “falsos vacíos”. ¿Y por qué? Pues porque, al igual que al cochecito le basta con un pequeño empujón o impulso para seguir avanzando desde uno de esos mínimos relativos hasta la meta final, lo mismo le puede llegar a suceder a un sistema físico que se encuentre previamente en un estado de falso vacío y que “algo” provoque que se precipite cuesta abajo hasta el vacío verdadero.

Lo anterior es lo que algunos cosmólogos piensan que pudo suceder en el origen de nuestro universo, como Alan Guth (la primera persona en proponer el modelo inflacionario del universo). Guth piensa que la inflación, un proceso de expansión hiperacelerada que tuvo lugar justo tras el Big Bang, no fue más que el decaimiento o el paso de un estado de falso vacío a otro con una energía más baja, lo que generó una especie de burbuja que se expandió exponencialmente a la velocidad de la luz y que se convirtió en el universo en el que vivimos actualmente.

Ahora bien, la pregunta que uno se puede hacer es si, tras el Big Bang, el decaimiento del que habla Guth terminó en el vacío verdadero o si, por el contrario, nos hallamos en uno de esos mínimos relativos aludidos más arriba, es decir, nos encontramos en otro falso vacío y una perturbación suficientemente intensa, sea de la naturaleza que sea, podría provocar un nuevo decaimiento. Si esto llegara a suceder, dentro de nuestro universo “nacería” otro que, al expandirse a una velocidad superior a la de la luz terminaría con “todo” lo que encontrase a su paso (y aquí la palabra “todo” adquiere su significado más completo). Nuestro universo desaparecería y sería reemplazado por uno nuevo, incluso con leyes físicas completamente distintas.

En años recientes, sobre todo a raíz de la construcción de los grandes aceleradores de partículas, como el RHIC en Estados Unidos o el LHC en Suiza, se han difundido rumores consistentes en afirmar que los experimentos llevados a cabo en estos centros, donde se hacen colisionar partículas elementales o núcleos pesados a velocidades muy próximas a la de la luz, traerían como resultado, de formas más o menos exóticas, el fin del mundo. La paranoia llegó a alcanzar niveles tan preocupantes que científicos de enorme prestigio (incluso laureados con el premio Nobel de física) se vieron obligados a elaborar informes en los que se daba a conocer al público, tanto al iniciado como al lego en la materia, que el hecho de acumular una enorme cantidad de energía (procedente de las partículas que colisionan) en una región muy pequeña del espacio no tendría como consecuencia jamás un evento del tipo “decaimiento del vacío”.

Un segundo escenario hipotético que se contempló tenía que ver con la denominada materia extraña o, más concretamente, los strangelets. En física, un strangelet es una partícula que contiene, en igual número, quarks de tipo up, down y strange (tres de las seis clases que existen; las otras tres son top, bottom y charm). La materia “ordinaria” o bariónica que conocemos está compuesta por protones y neutrones, que constituyen los núcleos atómicos. Un protón contiene dos quarks de tipo up y uno de tipo down, mientras que un neutrón contiene dos quarks de tipo down y uno solo de tipo up. Es decir, en la materia que conocemos no suelen estar presentes, en condiciones normales, las otras cuatro clases de quarks. Sin embargo, cuando se utiliza un gran acelerador de partículas, la cosa puede ser muy diferente. A medida que se incrementa la energía de las colisiones entre partículas, como protones o núcleos enormemente pesados tales como el plomo o el oro, el resto de quarks comienza a hacer acto de presencia, entre ellos el quark strange (extraño, en español).

Si resultase ser correcta la hipótesis de la materia extraña formulada por Ed Witten en 1984, es decir, si se diese el caso de que la materia nuclear ordinaria (formada por quarks up y down) que conocemos fuese menos estable que la constituida por quarks de tipo strange, entonces no sería descartable que en algunas colisiones se formasen estados ligados de partículas con igual número de quarks up, down y strange, es decir, strangelets. Hay que decir que todas las partículas extrañas que se han creado hasta hoy en nuestros aceleradores solamente poseen un quark de tipo strange y, con todo, han decaído en cuestión de nanosegundos en materia ordinaria, nuevamente. Pero ¿qué sucedería si uno de estos strangelets colisionara con otro núcleo ordinario? ¿No podría darse el caso de que el primero indujese una conversión del segundo, transformándolo, a su vez, en otro strangelet? ¿Y por qué no iba a seguir perpetuándose el mismo proceso hasta que todos los núcleos ordinarios se tornasen en strangelets? Al final del proceso y, dado que éste conlleva una liberación de energía, todo el planeta acabaría sus días en forma de una masa informe y caliente de materia extraña.

El fatídico acontecimiento sería, más o menos, como sigue: imaginemos, por improbable que pudiera parecer, que en uno de nuestros aceleradores de partículas se ha formado un strangelet con una carga eléctrica negativa y que ha sobrevivido el tiempo suficiente como para ser capturado por un núcleo atómico ordinario. Lo que sucedería a continuación sería que el strangelet absorbería los nucleones (protones y neutrones) de aquél, haciéndose cada vez mayor y adquiriendo una carga eléctrica positiva. Acto seguido, el strangelet, si es que aún sobreviviese, podría capturar electrones, volviendo a cargarse negativamente y repitiendo el proceso de nuevo.

La respuesta a las cuestiones anteriores, aunque no absolutamente definitiva, la proporcionó Jes Madsen en un artículo publicado el año 2000 por la prestigiosa revista Physical Review Letters. Como ya podíamos intuir a partir de los párrafos previos, Madsen demostró que para que un strangelet capturase un núcleo de materia ordinaria, debería darse una atracción eléctrica entre ambos que incrementase las posibilidades de la unión antes de que el strangelet tuviese tiempo de desintegrarse. Sin embargo, lo que encontró fue todo lo contrario, es decir, la carga eléctrica de un strangelet era siempre de signo positivo y, por tanto, la interacción entre el strangelet y el núcleo resultaría repulsiva (recordemos que un núcleo atómico ordinario presenta siempre carga eléctrica positiva a causa de la presencia de protones en él; los neutrones, como su propio nombre indica, son eléctricamente neutros). Aunque el escenario apocalíptico de una Tierra convertida en materia extraña resultaba posible, no era menos cierto que las probabilidades favorables se mostraban extraordinariamente esquivas.

Hasta hoy jamás se ha encontrado materia extraña estable en lugar alguno del universo conocido. Se sabe que colisiones entre núcleos atómicos pesados, como el hierro, por ejemplo, suceden continuamente gracias a los rayos cósmicos que inciden sobre la Tierra o en la superficie de la Luna. En concreto, estimaciones razonables arrojan una cifra de diez mil cuatrillones de colisiones en toda la historia de nuestro satélite. Sin embargo, ahí permanece, a casi 400000 km de distancia, sin haberse transformado en un engendro de materia extraña. Sin embargo y, a pesar de todas las evidencias que parecen apuntar en la dirección de una altísima improbabilidad de un evento catastrófico como éste, conviene tener en cuenta que la cromodinámica cuántica, el modelo teórico más preciso que tenemos a la hora de explicar la interacción fuerte no se conoce hasta el punto de poder ser capaces de utilizarla para predecir fenómenos tan complejos como los que estamos tratando aquí, esto es, la formación y comportamiento de un strangelet.

A pesar de todo, en la actualidad, algunos astrofísicos siguen pensando que la materia extraña podría existir como tal en las regiones más internas de algunas estrellas conocidas precisamente como estrellas extrañas o estrellas de quarks, donde condiciones físicas como la presión y la temperatura favorecerían el proceso de conversión de la materia nuclear ordinaria en materia extraña estable. Dichas estrellas extrañas podrían haberse creado como resultado de la muerte de estrellas masivas, pero que no han alcanzado el umbral (alrededor de una decena de veces la masa de nuestro Sol) para acabar su vida en forma de agujero negro. Los astrofísicos sospechan, aunque nunca se han observado, que las estrellas de materia extraña podrían ser considerablemente más pequeñas que las estrellas de neutrones y han sugerido que podrían detectarse en forma de púlsares con períodos de rotación del orden de los milisegundos o inferiores.

Precisamente un agujero negro podría constituir otra de las incontables megacatástrofes susceptibles de terminar con el mundo que conocemos. Los agujeros negros estelares, que son a los que nos referiremos a continuación, constituyen el estado final en la vida de las estrellas suficientemente masivas. Cuando la fusión nuclear ya no es capaz de contrarrestar la inmensa gravedad de la estrella, tiene lugar un proceso de contracción irreversible que concluye con la formación de un agujero negro, un ente tan exótico que aún hoy, un siglo después de su predicción teórica, nadie ha logrado observar directamente. Y nadie lo ha hecho porque, entre otras cosas, un agujero negro siempre aparece rodeado de un horizonte de sucesos, una región alrededor del propio agujero de la que no puede escapar absolutamente nada, ni tan siquiera la luz, tal es la inimaginable intensidad del campo gravitatorio (o, más rigurosamente, la curvatura del espaciotiempo en sus inmediaciones).

No se conoce con precisión el dato pero los astrofísicos piensan que solamente en la Vía Láctea, una de cada diez mil estrellas podría ser un agujero negro. Teniendo en cuenta que nuestra galaxia alberga entre cien mil y doscientos mil millones de estrellas, la cifra de agujeros negros rondaría los 10-20 millones. Y esta estimación probablemente se quede corta. Lo que sí es cierto es que, hasta la fecha, todos los agujeros negros estelares que hemos logrado detectar (18 confirmados en nuestra propia galaxia y otros 32 aún en proceso de estudio) forman parte de sistemas binarios, es decir, siempre están ligados gravitatoriamente a una estrella compañera.

Las galaxias que pueblan el universo no son objetos estáticos e inmóviles, como podría parecernos. Muy al contrario, aparte de su movimiento cosmológico, el debido a la expansión de Hubble, también poseen velocidades propias y por esta razón no todas las galaxias se están alejando de la nuestra, por ejemplo, sino que algunas incluso se están aproximando a la Vía Láctea o a otras. Es más, las mismas estrellas que constituyen una galaxia, están animadas de velocidades propias y no existe ninguna razón por la que los agujeros negros estelares no puedan hacer lo mismo. ¿Qué sucedería si, a lo largo de su periplo por el espacio interestelar, uno de estos agujeros negros se aproximase en exceso a nuestro sistema solar? Y aún peor, si la luz no puede abandonar el horizonte de sucesos, ¿cómo podríamos saber que se dirige hacia nosotros? Puede que para cuando fuésemos capaces de detectar sus efectos gravitatorios no tuviésemos tiempo de hacer nada útil al respecto como no fuese disponer de una tecnología suficientemente avanzada que posibilitase abandonar el planeta o hasta el mismísimo sistema solar, en caso de absoluta necesidad.

Las simulaciones numéricas llevadas a cabo con ordenadores parecen demostrar que bastaría con que un agujero negro de masa típica (unas cuantas masas solares) se aproximase a una distancia de unos mil millones de kilómetros (siete veces la distancia entre la Tierra y el Sol) para que la órbita de nuestro planeta se viese perturbada de tal forma que su elipticidad aumentara lo suficiente como para que se produjesen diferencias de temperatura de cientos de grados, dependiendo de las situaciones exactas de los nuevos afelio y perihelio, algo que haría del todo inviable la vida sobre la Tierra. Obvia decir que un agujero negro más masivo o que pasase aún más cerca sería perfectamente capaz de expulsar a la Tierra del mismísimo sistema solar o incluso destruirla por completo.


Uno de los indicios que hipotéticamente nos podría hacer sospechar la presencia relativamente cercana de un agujero negro errante sería la aparición de intensos destellos de rayos X emitidos a medida que el agujero negro fuese capturando otros cuerpos estelares que se fuesen cruzando en su camino. Otra posibilidad no despreciable sería la perturbación de la órbita de una estrella desafortunadamente cercana y que terminase por ser despedida en rumbo de colisión directamente hacia nuestro Sol.

Que las colisiones entre estrellas pueden llegar a ser una realidad es algo que se sospechaba desde hace mucho tiempo pero fue a raíz de un hallazgo sorprendente en 1953 cuando se confirmó tal posibilidad. En aquel año se descubrieron una clase muy peculiar de estrellas denominadas “rezagadas azules”, pertenecientes a agrupaciones estelares conocidas como cúmulos globulares, donde la densidad de estrellas es mucho mayor que en otras regiones del espacio galáctico. La peculiaridad que caracterizaba estas estrellas era un brillo inusualmente elevado, en comparación con el resto de la población del cúmulo, cuando se sabía que todas las estrellas pertenecientes a los cúmulos globulares deberían presentar las mismas edades, aproximadamente, y, por tanto, luminosidades parecidas. ¿Por qué las rezagadas azules parecían, pues, más jóvenes?

Se barajan dos hipótesis alternativas que ofrecen una explicación de las observaciones: la primera es que todas ellas formen parte de sistemas binarios y se dé una transferencia de masa entre ambos miembros del sistema, es decir, que una de las componentes capture materia procedente de la otra, lo que provoca que se induzca una nueva ignición del proceso de fusión nuclear y la estrella captora aumente inusualmente de brillo, haciéndose más azulada y, aparentemente, más joven; la segunda opción es que la estrella rezagada azul se haya formado a consecuencia de la colisión con otra estrella, fusionándose ambas en un cuerpo mucho más masivo y, en consecuencia, más brillante y azul. De hecho, observaciones y datos recientes relativos a ciertos cúmulos globulares, como NGC 188, parecen corroborar que aproximadamente el 80% de las estrellas rezagadas azules tiene su origen en transferencias de masa dentro de sistemas binarios. Si los resultados fueran extrapolables al resto de cúmulos estelares, tan sólo un 20% de colisiones estelares serían responsables de las rezagadas azules que observamos, lo que hace de estos cataclismos, ya raros de por sí, fenómenos extraordinariamente improbables.

Obviamente, cuando no consideramos los cúmulos globulares, la densidad de las poblaciones estelares se hace aún mucho más baja. Baste tener en cuenta que la estrella más cercana al Sol se encuentra a una distancia ligeramente superior a los 4 años luz (1,3 parsecs). En un entorno de unos 5 parsecs de radio alrededor del Sol tan sólo existen 49 sistemas estelares.

Las posibilidades de que una estrella fugitiva pase por las cercanías del sistema solar y se dirija directamente hacia el Sol son en verdad escasas, pero también es cierto que no resultan nulas. La probabilidad de un hipotético impacto aumenta cuanto más cerca pase la estrella, cuanto mayor sea su masa y más reducida sea su velocidad propia.

En 2010, V. V. Bobylev, publicó en la revista Astronomy Letters algunas de las conclusiones a las que había llegado a partir de datos procedentes del satélite Hipparcos, así como de valores actualizados de las velocidades radiales de cientos de estrellas que han pasado en los últimos dos millones de años o pasarán por las cercanías de nuestro sistema solar dentro de los próximos dos millones de años, a una distancia inferior a los tres parsecs. De entre todos los casos analizados, destacaba el de la estrella conocida como Gliese 710. Actualmente, ésta se encuentra a unos 63 años luz (20 parsecs), pero las simulaciones numéricas de su órbita indicaban que en el futuro, en un millón y medio de años, alcanzaría la máxima aproximación a nosotros, nada menos que 1,1 años luz (0,3 parsecs), con una probabilidad nada despreciable del 86%.

Si nos basamos exclusivamente en la densidad de estrellas que hay en las proximidades del sistema solar, más o menos de 0,1 estrellas por pársec cúbico, el tiempo promedio estimado para que una estrella errante se acerque hasta una distancia comparable a la que se encuentra Próxima Centauri (la más cercana al Sol) ronda los 75000 años. Si la distancia de aproximación se reduce a 0,02 parsecs (unas cinco mil veces la distancia media Tierra-Sol) el lapso de tiempo se incrementa hasta los 200 millones de años, mientras que un evento tan devastador como sería el acercamiento de una estrella hasta situarse a una distancia tan escasa como a la que se halla el planeta Júpiter únicamente sucedería cada 200 billones de años, un tiempo 14000 veces superior a la edad del universo.

Pero vayamos un poco más allá. Aun admitiendo que la colisión entre una estrella vagabunda y el Sol es enormemente improbable, por no decir prácticamente imposible, al menos en una escala de tiempo humana, lo cierto es que algunos astrofísicos se han preguntado cómo sería un evento tal. Como cualquier colisión entre dos objetos, el resultado final depende, esencialmente, de tres parámetros: la masa particular de cada objeto, las velocidades relativas entre ambos y la dirección en que tiene lugar el impacto. Desde hace décadas varios grupos de investigadores han dedicado enormes esfuerzos de computación a la simulación numérica de toda una serie de variedades de colisiones entre objetos estelares de distinta naturaleza. Si se consideran, por ejemplo, siete clases de estos objetos en orden creciente de densidad, a saber: estrellas súper-gigantes, gigantes rojas, estrellas de secuencia principal como el Sol, enanas marrones, enanas blancas, estrellas de neutrones y agujeros negros, aparecen hasta 28 combinaciones distintas. De entre todas, las que nos afectarían directamente serían los choques entre una estrella de la secuencia principal (el Sol) con cualquiera de los otros seis tipos. Quizá las más “benignas”, por calificarlas de alguna manera, serían las que tuviesen lugar entre nuestra estrella y una de las dos clases de gigantes. En ambos casos, el resultado final sería un sistema binario compuesto por una estrella de la secuencia principal y una enana blanca. Las consecuencias que acarrearía todo lo anterior para la vida sobre nuestro planeta no resultan difícilmente imaginables.

En el hipotético caso de que una enana blanca se encontrase en el camino de nuestra estrella, debido a que la primera tiene una masa muy parecida a la segunda (una enana blanca no puede existir por encima de una masa umbral denominada límite de Chandrasekhar y que es de 1,4 masas solares) pero al mismo tiempo un tamaño similar al de la Tierra, es decir, cien veces menor y diez millones de veces más densa, produciría la destrucción completa del Sol, desgajándolo y expulsando al espacio enormes cantidades de plasma. El proceso tendría lugar de una forma extraordinariamente rápida (en cuestión de unas pocas horas) y el objeto más compacto, en este caso la enana blanca, prácticamente resultaría inalterado. En cambio, los planetas del sistema solar quedarían libres del campo gravitatorio que los mantiene en sus órbitas y serían expulsados y condenados a vagar por la galaxia, y esto solamente en el caso de que fuesen lo suficientemente afortunados como para no haber sucumbido entre las llamaradas de gas súper-caliente emitidas por la aniquilación del Sol.

Si el encuentro tuviese lugar con un objeto aún más denso y extraordinariamente compacto como puede ser una estrella de neutrones de tan sólo unos pocos kilómetros de diámetro, el producto final de la interacción, dependiendo de las condiciones particulares, se reduciría a dos posibilidades: o bien se generaría una sola estrella de neutrones o bien un agujero negro rodeado de un disco de acreción.

Cuando las estrellas que colisionan son semejantes, tanto en tamaño como en densidad y naturaleza lo que sucede es una especie de solapamiento de sus plasmas respectivos, comprimiéndose y distorsionándose hasta adquirir formas que distan bastante de ser esféricas. Porciones importantes de sus masas se desprenden y ambas estrellas terminan por fusionarse en una sola en cuestión de minutos.

Siendo conscientes de las escasísimas posibilidades que tenemos de asistir u observar directamente un encuentro entre dos estrellas debido a lo improbable del suceso, caben, sin embargo, otras opciones como pueden ser, por ejemplo, la detección de las colisiones más violentas, cuando ambos objetos son estrellas de neutrones y, en consecuencia, la generación de energía resulta mucho mayor. Según la teoría de la relatividad general, cuando tienen lugar distorsiones del espaciotiempo, como es el caso considerado, éstas van siempre acompañadas de la emisión de ondas gravitatorias. Debido a lo débiles que son estas oscilaciones, únicamente seríamos capaces de detectar aquellas que fuesen extraordinariamente potentes, al menos con la tecnología que poseemos en la actualidad. Hasta ahora nunca se ha demostrado experimentalmente la existencia de estas ondas gravitatorias; tan sólo se cree poseer evidencia indirecta,  a través de otras observaciones y/o cálculos, de que, en efecto, son reales.

Si la colisión directa de una estrella o un objeto tan compacto como un agujero negro contra el Sol resulta ya de por sí más que suficiente para provocar el fin de nuestro sistema solar como tal y la consiguiente aniquilación de la vida sobre la Tierra, lo cierto es que tampoco es necesario que el suceso megacatastrófico resulte tan extremo ni que la estrella asesina se acerque a nosotros a una distancia tan corta. En realidad bastaría con que dicha estrella o cuerpo suficientemente masivo nos visitase a distancias relativamente grandes pero que provocasen perturbaciones en la nube de Oort, un esferoide imaginario con unas cien mil UA (Unidad Astronómica, distancia media entre la Tierra y el Sol, equivalente a unos 150 millones de kilómetros) de semieje mayor y ochenta mil UA de semieje menor que rodea nuestro sistema solar, o incluso en el cinturón de Kuiper, que se extiende hasta una distancia de unas 50 UA.

Suponiendo que una estrella vagabunda penetrase en una región situada a menos de 1000 UA del Sol sus efectos perturbadores sobre los cometas y asteroides que allí se encuentran podrían muy bien hacer que muchos de ellos se precipitasen hacia el interior del sistema solar, incrementando las posibilidades de un potencial impacto contra la Tierra, en un fenómeno conocido como “lluvia de cometas”. Se estima que la escala temporal para una de estas lluvias de cometas de la nube de Oort rondaría el millón de años.

En el interior de estas regiones, como son el cinturón de Kuiper y la nube de Oort, existen tanto cometas de corto período como de largo período. Estos últimos, con órbitas muy excéntricas, representarían un peligro mucho mayor debido a sus enormes tamaños. Una clase especial de estos son los conocidos asteroides damocloides, núcleos ya inactivos de cometas, y que pueden llegar a alcanzar diámetros de casi 200 kilómetros. La cantidad de luz que reflejan del Sol es muy baja, encontrándose entre los objetos más oscuros de todo el sistema solar, lo que dificulta enormemente su detección y observación. A principios de 2010, el telescopio WISE de observación en el rango infrarrojo del espectro electromagnético, encontró más de una docena de asteroides especialmente oscuros, de los cuales más de la mitad presentaban albedos inferiores a 0,1 (el albedo es la relación entre la cantidad de luz que refleja un cuerpo y la que incide sobre el mismo).

En la actualidad tan sólo existen en el mundo un puñado de programas especiales dedicados a la detección y observación de objetos cercanos a la Tierra (asteroides y cometas). Han logrado identificar más de 7000 de los primeros y prácticamente un centenar de los segundos. Aproximadamente, entre 500 y 1000 de estos asteroides presentan unos diámetros superiores al kilómetro, llegando algunos a superar los 30 km.

La frecuencia con la que estos cuerpos celestes se cruzan con la órbita de la Tierra varía, obviamente, con sus tamaños. Así, se estima que los más pequeños penetran en nuestra atmósfera hasta una vez al año, aunque prácticamente todos ellos se desintegran antes de llegar al suelo y dejar una huella en forma de meteorito. Los de diámetros comprendidos entre varias decenas y algunos cientos de metros caen cada 100-1000 años; los de hasta 5-6 km impactan, aproximadamente, cada millón de años; y los de tamaños aún mayores colisionan con la Tierra cada 100 millones de años o más.

En el hipotético caso de que uno solo de estos objetos se dirigiese hacia nosotros, la suerte de la raza humana estaría echada. El núcleo de un cometa de 200 km de diámetro provocaría un evento de extinción global, cuando no unos daños inimaginables a cualquier planeta contra el que se precipitase. En este sentido, cabe recordar las imágenes que pudimos contemplar a través del televisor en julio de 1994, cuando los fragmentos del cometa Shoemaker-Levy 9 impactaron contra Júpiter, dejando huellas en su atmósfera de tamaños superiores a la misma Tierra. También, hace unos 780000 años, un asteroide de tan sólo 10 km se estrelló en el continente antártico. Debido a que coincidió con una Edad de Hielo en nuestro planeta, sus efectos devastadores se vieron considerablemente amortiguados y la aún escasa población humana de la época pudo sobrevivir al catastrófico evento. ¿Y quién no conoce la teoría acerca de la desaparición de los dinosaurios a causa de otro impacto similar hace 65 millones de años?

En aquella época, y como es sabido, los dinosaurios dominaban el planeta. Entonces, aunque no se puede afirmar con certeza absoluta ya que pudieron coincidir otros factores que jugaron un papel simultáneo, se piensa que un asteroide de entre 10 y 15 km de diámetro colisionó contra la Tierra, en el lugar que ocupa la actual península de Yucatán. Una buena parte de la roca asesina seguramente se debió vaporizar a causa de la inmensa fricción sufrida con la atmósfera. Ingentes cantidades de sedimentos y vapor de agua fueron arrojados a varias decenas de kilómetros de altura, lo que sin duda provocó el bloqueo de la luz solar. Desde el mismo punto de impacto del asteroide se generaron ondas de choque acústicas capaces de inducir cientos de miles de los más intensos terremotos, se liberaron gases y lava procedentes del manto terrestre, lo que dio lugar a incendios de proporciones épicas. Multitud de volcanes entrarían en erupción, repartidos por toda la corteza del planeta, lo que conllevó a su vez a la emisión de enormes cantidades de cenizas, dióxido de carbono, cloro y dióxido de azufre. En particular, este último reacciona con avidez con las moléculas de agua para formar ácido sulfúrico que tiende a permanecer durante mucho tiempo en la estratosfera en forma de aerosol. El espectáculo debió de ser desolador.

La ausencia de luz solar hizo que las plantas sucumbieran tras no demasiado tiempo después de la colisión. Como es lógico, los animales herbívoros se vieron privados de alimento y fueron los siguientes en la cadena de extinciones masivas. A su vez, al desaparecer aquéllos, los carnívoros también debieron claudicar sin remedio.

La temperatura no sólo experimentó un incremento insoportable en tierra y en la atmósfera (seguramente, cientos de grados); análogamente, en los océanos, aunque en menor medida debido a que el agua es una sustancia con una elevada capacidad calorífica que la hace absorber enormes cantidades de calor modificando tan sólo ligeramente su temperatura, el calentamiento súbito terminó con la práctica totalidad del plancton marino que puebla los primeros metros bajo la superficie. No resulta difícil imaginar el destino de todas las especies animales que dependen de él.

Si tenemos en cuenta las frecuencias con las que puede suceder el impacto de un objeto cercano a la Tierra, podríamos estar tentados de creernos con todo el derecho a sentirnos tranquilos, a salvo de un acontecimiento aparentemente catastrófico. De hecho, esta actitud de despreocupación, como poco insensata, es la que parecen adoptar prácticamente la totalidad de los políticos del mundo desarrollado.  Todos los expertos y muchos que no siéndolo muestran una cierta sensatez están de acuerdo en que, tarde o temprano, una roca de un tamaño capaz de provocar un evento de extinción, se precipitará sobre nuestro planeta, quién sabe si provocando nuestra total desaparición de la faz de este mundo. Más aún, quizá no sea necesario siquiera que la colisión se produzca directamente contra la Tierra. Puestos a imaginar, por qué no iba a darse la posibilidad de que el asteroide o cometa asesino se encaminase directamente a la Luna. De hecho, la masa de ésta es ochenta veces menor que la de nuestro planeta y el impacto directo, sin duda, produciría un daño mucho mayor. Si, hipotéticamente, nuestro satélite saliera despedido de su órbita, una de las consecuencias más serias que sufriría la Tierra sería la que tiene que ver con la estabilidad del eje de rotación. En efecto, el eje alrededor del que gira nuestro planeta sobre sí mismo forma un cierto ángulo con la línea perpendicular a la eclíptica (el plano en el que se encuentran contenidas las órbitas de la Tierra y el Sol) denominado oblicuidad. Esta inclinación oscila, con un período de unos 40000 años, entre los 22° y los 24,5°. Gracias a la oblicuidad de la eclíptica, los habitantes de la Tierra disfrutamos de cuatro estaciones denominadas primavera, verano, otoño e invierno, lo que no pueden decir en otros planetas como Júpiter, cuya oblicuidad es de poco más de 3°, o en Urano, donde alcanza los casi 98°.

La Luna es el astro que mantiene la inclinación del eje de rotación terrestre comprendida entre unos valores intermedios, ni demasiado grande ni demasiado pequeña. Si un cataclismo nos privase de nuestro único satélite natural, el eje de rotación de la Tierra oscilaría de manera caótica (como parece que tiene lugar en Marte, precisamente debido a la ausencia de un gran satélite como el nuestro). Si la oblicuidad de la eclíptica superase, aproximadamente, los 54° las temperaturas en la superficie de la Tierra aumentarían hasta superar los 80 °C, incluso más. La vida, tal y como la conocemos, resultaría inviable.

En años recientes, no han sido pocas las propuestas aparecidas en las revistas científicas con las que se sugieren proyectos, técnicas y procedimientos a seguir con el fin de mitigar o evitar los posibles impactos de objetos cercanos a la Tierra. Desde la detonación de un artefacto nuclear sobre la misma superficie o a una cierta distancia próxima al asteroide o cometa hasta la puesta en órbita alrededor del mismo de una sonda suficientemente masiva como para que su campo gravitatorio ejerza una influencia suficiente como para desviar de su rumbo a la amenaza, pasando por el impacto directo de una nave con el cuerpo rocoso que produjese cráteres en su superficie por los que escaparían gases que harían de propulsores, alterando así su trayectoria de colisión, o hasta pintar alternativamente de colores claros y oscuros porciones distintas del asteroide que aprovechasen tanto la rotación propia de éste como la distinta reflexión de la luz solar incidente hasta lograr, igualmente, que la órbita se modificase.

Sin embargo, todas las ideas anteriores siempre adolecen de una o varias dificultades, además de requerir en todos los casos un conocimiento preciso de la órbita del objeto impactor, sus características físicas y químicas (composición, densidad, porosidad, etc.) y, más importante quizá, la fecha del acontecimiento. Los procedimientos propuestos exigen, inevitablemente, años si no décadas de antelación para que la actuación pueda ser eficaz.

Si la limitada capacidad tecnológica de que disponemos en la actualidad para conocer con suficiente antelación el acercamiento de un cuerpo celeste tan pequeño y poco luminoso como un asteroide o cometa juega un papel decisivo y crucial a la hora de mitigar el posible impacto, ya sea con nuestro planeta o con la Luna, lo cierto es que existe un acontecimiento donde el tiempo de detección es completamente irrelevante: la emisión de un GRB (iniciales de Gamma Ray Burst, o estallido de rayos gamma, en español), probablemente el fenómeno más violento conocido a escala cósmica.


Los primeros GRB se descubrieron de forma fortuita a principios de la década de 1960 por satélites espías y, en un principio, se interpretaron como evidencias de la existencia de ensayos llevados a cabo con armamento nuclear.

Aunque aún no se comprenden muy bien los mecanismos de producción de un GRB, lo que sí parece claro es que suelen aparecer muy frecuentemente en galaxias de tipo irregular, relativamente pequeñas y con niveles bajos de metalicidad, es decir, que se trata de galaxias antiguas, como las que debieron poblar el universo en sus primeras fases de existencia y cuyas estrellas aún no habían tenido tiempo suficiente como para evolucionar y acumular elementos pesados.

Otra característica distintiva de los GRB tiene que ver con su duración. En este sentido, los astrofísicos han clasificado los estallidos de rayos gamma en dos categorías, según que las emisiones de radiación se prolonguen o no por encima de los dos segundos (algunas pueden llegar a persistir hasta varias horas, aunque el promedio suele estar en unos pocos minutos). En el primer caso, estos eventos parecen ir asociados al colapso gravitatorio de estrellas muy masivas, como las denominadas estrellas WR (iniciales de Wolf y Rayet, sus descubridores, y cuya masa supera las 15-25 masas solares) que concluyen sus vidas en fantásticas explosiones denominadas hipernovas, llegando a liberar en un solo fogonazo más energía que la que emitiría una estrella convencional a lo largo de toda su existencia. Recientemente, los astrofísicos han llegado a proponer, asimismo, como causa de estos destellos de larga duración la fusión entre una estrella enana blanca y otra de neutrones o, alternativamente, la disrupción de una estrella por parte de un agujero negro de tamaño intermedio. En el segundo, la causa se atribuye a la colisión o fusión entre dos objetos muy compactos (estrellas de neutrones, por ejemplo). En nuestra galaxia únicamente se conocen alrededor de un par de miles de estrellas de neutrones (muchas de ellas porque se corresponden con objetos denominados púlsares), pero podría haber muchas más debido a la dificultad que presentan para poder detectarse o localizarse a causa de su pequeño tamaño, del orden de unas pocas decenas de kilómetros de diámetro, y escasa luminosidad. Se cuentan con los dedos de las manos las que se sabe con certeza que constituyen, en efecto, sistemas binarios.

Si cualquiera de las componentes de una estas parejas se precipitase sobre su compañera, llegaran a fusionarse y formar un agujero negro, lo más probable es que un poderoso GRB fuese lanzado al espacio en la dirección paralela al eje de rotación del objeto. El haz a lo largo del cual es emitida la radiación gamma suele ser muy estrecho, de tan sólo unos pocos grados sexagesimales de anchura, como si fuera el disparo efectuado por un colosal fáser utilizado por los protagonistas de Star Trek. Si, además, la raza humana fuese lo suficientemente desafortunada como para que dicho haz apuntase directamente a nuestro planeta, las consecuencias serían desastrosas, con el agravante de que no habría forma de adelantarse a los acontecimientos, pues la radiación gamma, por definición, viaja a la velocidad de la luz y para cuando quisiésemos detectarla ya nos habría alcanzado.

Se estima, no con total seguridad, que en nuestra galaxia sucede un evento GRB, aproximadamente, cada unos pocos cientos de millones de años. La Tierra no estaría a salvo aunque el fogonazo se produjese a distancias tan enormes como 6000 años luz. Un GRB producido por la explosión de una gigantesca hipernova situada en un lugar tan alejado y cuya duración no superase los diez segundos destruiría la mitad de la capa de ozono del planeta en cuestión de unas pocas semanas y los efectos se extenderían en el tiempo, probablemente, durante décadas. Todo es cuestión de química. En efecto, cuando los rayos gamma enormemente energéticos procedentes del GRB alcancen la atmósfera terrestre arrancarán los electrones de las moléculas de nitrógeno y oxígeno allí presentes, ionizándolas. Entonces, éstas reaccionarán y formarán óxido nítrico, un gas tóxico de color marrón. Y si esta toxicidad no es algo ya de por sí suficientemente nocivo y peligroso para las personas, lo peor aún está por llegar. El óxido nítrico es una sustancia que, al igual que los tristemente célebres clorofluorocarbonos, atacan activamente las moléculas de ozono presentes en nuestra estratosfera. En cuanto el escudo protector desaparece, la radiación ultravioleta procedente del Sol empieza a penetrar en la atmósfera y ya no es detenida por el ozono, con lo que no tiene gran dificultad en llegar hasta la superficie de la Tierra, destruyendo, entre otras cosas, el fitoplancton marino que vive en los primeros metros de profundidad y que sirve de alimento a una enorme variedad de otras especies animales; la cadena trófica quedaría gravemente afectada y seguramente de manera irreversible. De hecho, en un artículo muy reciente, se ha asociado (aunque hay que reconocer que esto tampoco constituye demasiada novedad) la extinción masiva del período Ordovícico, hace unos 440-450 millones de años, con un evento tipo GRB.

Existen más posibles evidencias de que nuestro planeta ha sufrido antes, en otras ocasiones, los efectos de destellos de rayos gamma procedentes del espacio profundo. Por ejemplo, el año pasado, 2012, un equipo de científicos japoneses encabezado por el profesor Miyake, tras llevar a cabo minuciosos análisis del contenido de isótopos de carbono-14 y berilio-10 en los anillos de los troncos de árboles, pudo determinar que la acumulación de aquéllos era anormalmente alta y se correspondía posiblemente con un exceso de radiación de muy alta frecuencia que habría impactado supuestamente con la Tierra hacia los años 774-775. El propio grupo de Miyake propuso varias hipótesis que explicaran las observaciones, aunque posteriormente fueron descartadas porque siempre adolecían de la falta de otras pruebas que las deberían apoyar o corroborar. Tan sólo hace unos meses, en enero de este mismo año, 2013, otros dos investigadores, Hambaryan y Neuhäuser, han propuesto en un artículo aparecido en la revista Monthly Notices of the Royal Astronomical Society una explicación alternativa: el impacto directo con nuestro planeta de un GRB originado a una distancia de entre 3000 y 12000 años luz.

Hemos mencionado unos párrafos más arriba que la emisión de un GRB sea posiblemente el fenómeno más energético del universo, pero aún cabe ir un paso más allá y preguntarse: ¿qué sucedería si imaginásemos la megacatástrofe definitiva? ¿Cuál sería? Al fin y al cabo, las otras seis tratadas hasta ahora tan sólo han mostrado su poder devastador hasta el punto de terminar con la vida en la Tierra, si exceptuamos el decaimiento del falso vacío. Bien, hagamos un poco de historia antes de acabar con este artículo y quizá… algo más.

En 1998, dos grupos de investigadores liderados, respectivamente, por Adam Riess y Saul Perlmutter, se encontraban estudiando el comportamiento de una clase especial de supernovas denominadas de tipo Ia. Estas gigantescas explosiones se producen cuando una de las dos estrellas de un sistema binario captura material de su compañera, lo que hace que la primera adquiera una masa cada vez mayor hasta que, en algunos casos, se supera un valor crítico, la estrella se hace inestable y se desencadena una explosión termonuclear que suele terminar con su pareja. Prácticamente en todos los casos la estrella asesina es una enana blanca y hasta hace muy poco se pensaba que la víctima de su afán devorador podía ser tanto una estrella de la secuencia principal (similar al Sol) como una estrella gigante. Sin embargo, actualmente los astrónomos parecen haber hallado evidencias de que la estrella devorada puede ser, en muchas ocasiones, otra enana blanca o incluso alguna estrella más pequeña que el Sol, como una enana roja, por ejemplo.

Cuando Riess y sus colaboradores analizaron las luminosidades de las supernovas de tipo Ia encontraron algo muy curioso: al parecer, el universo no solamente se estaba expandiendo, tal y como había descubierto Edwin Hubble en 1929, sino que, en realidad, lo hacía de forma acelerada, es decir, la materia presente en todo el cosmos no estaba frenando (como se había supuesto) la expansión de Hubble. Las galaxias se estaban alejando unas de otras a una velocidad que iba en aumento con el tiempo. A la mismas conclusiones llegaron un año después, en 1999, Perlmutter y sus colaboradores.


Semejante descubrimiento requería una explicación muy poco común que, de hecho, enfrentó durante tiempo y aún hoy sigue haciéndolo a cosmólogos y físicos de todo el mundo. En la actualidad, se admite mayoritariamente, lo cual no significa que la última palabra se haya pronunciado, la existencia de una especie de fluido cósmico que impregna todo el universo. Este fluido tendría la propiedad de generar una presión negativa o, para entendernos, produciría un efecto antigravitatorio, repulsivo en la materia. El mismo año 1998 Michael Turner acuñaría el término “energía oscura” para referirse a este fluido misterioso. Los datos más recientes proporcionados por el satélite Planck arrojan para nuestro universo una edad de 13798 millones de años y una composición global de un 4,9% de materia bariónica (la materia ordinaria que conocemos y experimentamos a diario), un 26,8% de materia oscura y un 68,3% de la citada energía oscura.

Trabajos llevados a cabo en los años posteriores al hallazgo de los grupos de Riess y Perlmutter han propuesto la existencia de tres clases de energía oscura: constante cosmológica, quintaesencia y energía fantasma. Dejemos aparte las dos primeras y centremos nuestra atención en la última de ellas.

Existe un número en cosmología de una importancia decisiva y con un significado crítico en lo que concierne a la evolución futura y el destino final del universo como un todo. Dicho número, denotado indistintamente por la letra w o la letra griega w, puede definirse como el cociente entre la presión y la densidad de energía. Dependiendo del rango de valores en que se mueva el citado parámetro, se pueden obtener las tres clases aludidas de energía oscura. Hasta la fecha, las medidas experimentales llevadas a cabo con ayuda de satélites artificiales no permiten descartar ninguna de ellas.

Un caso especialmente interesante es el que se presenta cuando w está comprendido entre -1,4 y -1. En efecto, para estos valores, el universo estaría dominado mayoritariamente por la energía fantasma y la expansión de aquél iría aumentando su aceleración más y más con el tiempo, de forma que cualquier región del espacio que seleccionásemos al azar incrementaría su volumen hasta hacerse infinito, pero con la particularidad (y esto es lo verdaderamente aterrador) de que el fatídico suceso tendría lugar en un lapso de tiempo finito. En consecuencia, todo lo que constituye el universo que conocemos, empezando por las estructuras más complejas, como las galaxias, comenzarían a desgajarse a causa del dominio de los efectos antigravitatorios (presión negativa). A continuación, una vez reducidas las galaxias a sus sistemas solares, les llegaría el turno a éstos, separándose las estrellas individuales de sus planetas. Luego, se desgarrarían las propias estrellas y algo más tarde los planetas. Finalmente, todo quedaría reducido a un mar de partículas elementales infinitamente alejadas unas de otras. Robert Caldwell, uno de los mayores expertos en el campo de la energía fantasma, ha calculado que todo habrá terminado en poco más de 20000 millones de años (1,5 veces la edad actual del universo) y el universo completo habrá dejado de existir en un proceso conocido como Big Rip.
 


NOTA: Este artículo se publicó originalmente en el #3 de la revista NAUKAS, en el verano de 2013.