Mostrando entradas con la etiqueta Astrofisica. Mostrar todas las entradas
Mostrando entradas con la etiqueta Astrofisica. Mostrar todas las entradas

28 de noviembre de 2012

La época en que se formaron los discos rotatorios de las galaxias

Galaxia espiral M88. (Foto: Adam Block/UA Mount Lemmon SkyCenter)

Actualmente, las galaxias como la nuestra o la de Andrómeda están organizadas de tal modo que muchas de sus estrellas giran de manera relativamente ordenada alrededor del centro galáctico, posicionadas en lo que puede definirse como un disco rotatorio, y esa rotación predomina sobre otros movimientos internos.

Pero no siempre fue así. Hubo un tiempo en que las galaxias, mucho más jóvenes que ahora, exhibían en su interior movimientos desorganizados en múltiples direcciones.

Un amplio estudio de cientos de galaxias observadas por los telescopios Keck en Hawái y el Telescopio Espacial Hubble de la NASA, ha revelado un patrón inesperado de cambio que se remonta a 8.000 millones de años atrás, es decir a cuando el universo tenía menos de la mitad de la edad que tiene ahora.

Las galaxias azules observadas en el estudio, lejanas en el espacio (y por tanto en el tiempo, ya que vemos la luz que emitieron hace tantos años como años-luz de distancia las separan de nosotros) aparecen transformándose gradualmente en galaxias con disco giratorio, como nuestra galaxia la Vía Láctea.

Hasta ahora, no estaba claro cómo cambian con el paso del tiempo la organización interna de una galaxia y sus movimientos asociados.

Las galaxias lejanas, con gran actividad de formación de estrellas, estudiadas por el equipo del astrónomo Benjamin Weiner, del Observatorio Steward adscrito a la Universidad de Arizona, y Susan Kassin, astrónoma del Centro Goddard de Vuelos Espaciales de la NASA, en Greenbelt, Maryland, no tienen en absoluto el aspecto de la Vía Láctea, con su disco en forma de espiral que rota lentamente y de forma ordenada. Las galaxias lejanas del pasado aparecen menos organizadas, y muestran movimientos más aleatorios, con estrellas, polvo y gas moviéndose hacia arriba, hacia abajo y lateralmente, dentro de la galaxia.

Los astrónomos pensaban que las galaxias con disco en nuestro vecindario cósmico se debieron estabilizar en su forma actual hace unos 8.000 millones de años, con poco desarrollo adicional desde entonces. En cambio, lo observado en la nueva investigación sugiere lo contrario: Las galaxias de esta clase deben haberse transformado paulatinamente a lo largo del tiempo.

Información adicional

Fuentes : http://uanews.org/story/how-galaxies-grow

El efecto de miles de estrellas moviéndose a 700.000 kilómetros por hora

Región del cúmulo de Los Arcos, vista en los rayos-X. (Foto: V. Tatischeff)

Se ha descubierto una nueva fuente de rayos cósmicos. En las proximidades del cúmulo estelar de Los Arcos, a unos cien años-luz del centro de la Vía Láctea, las partículas constituyentes de los rayos cósmicos son aceleradas en la onda de choque generada por decenas de miles de estrellas jóvenes desplazándose a una velocidad de alrededor de 700.000 kilómetros por hora.

El hallazgo lo ha hecho un equipo de investigadores del Centro Nacional francés para la Investigación Científica (CNRS) y la Comisión de Energía Atómica y de Energías Alternativas (antes Comisión de Energía Atómica) de Francia, valiéndose del Telescopio Espacial XMM-Newton de rayos X de la Agencia Espacial Europea.

Estos rayos cósmicos producen una emisión característica de rayos X al interactuar con los átomos del gas circundante. Su origen es diferente al de los rayos cósmicos típicos que fueron descubiertos hace cien años por Victor Hess, y que se originan en las explosiones de supernovas.

Cien años atrás, el físico austríaco Victor Franz Hess descubrió la existencia de radiaciones ionizantes de origen extraterrestre, a las que llamó rayos cósmicos. Hoy, su naturaleza se conoce bien. Cuando ciertas estrellas al final de su vida explotan y se convierten en supernovas, su materia es expulsada a velocidad supersónica, generando ondas de choque que aceleran a partículas. Como resultado, algunos núcleos atómicos ganan muchísima energía cinética y logran entrar en la atmósfera terrestre.
Sin embargo, los rayos cósmicos de baja energía no se detectan en nuestro planeta, ya que el viento solar les impide la entrada en la heliosfera. Por tanto, se sabe poco acerca de su composición química y cómo fluyen, aunque todo apunta a que tienen un papel significativo en la galaxia. Por ejemplo, al calentar e ionizar las densas nubes interestelares, probablemente regulan la formación de estrellas.

Las estrellas en el cúmulo de Los Arcos están viajando juntas a una velocidad de aproximadamente 700.000 kilómetros por hora. Aquí los rayos cósmicos atípicos son con toda probabilidad producidos por la colisión a gran velocidad del cúmulo estelar con una nube de gas que se encuentra en su camino. En esta región particular, la densidad energética de los iones acelerados es alrededor de mil veces mayor que la de los rayos cósmicos en la vecindad del sistema solar.

Ésta es la primera vez que se ha descubierto una fuente importante de rayos cósmicos de baja energía fuera del sistema solar. El hallazgo demuestra que las ondas de choque de las supernovas no son el único fenómeno capaz de causar la aceleración a enorme velocidad de núcleos atómicos en la galaxia. Lo descubierto en el estudio debería hacer posible identificar nuevas fuentes de iones en el medio interestelar y puede conducir a un mejor conocimiento de los efectos de estas partículas energéticas en la formación de estrellas.

Información adicional



Fuentes : http://www2.cnrs.fr/en/2115.htm

26 de noviembre de 2012

Planck detecta un puente de gas que une dos cúmulos de galaxias

(Foto: efecto Sunyaev–Zel’dovich: ESA Planck Collaboration; imagen óptica: STScI Digitized Sky Survey)

El telescopio espacial Planck de la ESA ha obtenido las primeras pruebas concluyentes de la existencia de un puente de gas caliente que conecta dos cúmulos de galaxias separados 10 millones de años luz.

El objetivo principal de la misión del Planck es el estudio de la luz más antigua del Universo, la Radiación Cósmica de Fondo (CMB, por sus siglas en inglés). A medida que esta tenue radiación surca el cosmos, se va encontrando con distintos tipos de estructuras, entre las que se incluyen las galaxias y los cúmulos de galaxias – conjuntos de cientos o miles de galaxias, cohesionadas por gravedad.

Cuando la radiación cósmica de fondo interacciona con el gas caliente que impregna estas inmensas estructuras cósmicas, altera su emisión energética de una forma muy característica, un fenómeno conocido como el efecto Sunyaev-Zel’dovich (SZ), en honor a los científicos que lo descubrieron.

Planck ya había aprovechado este efecto para estudiar cúmulos de galaxias, pero ahora le ha permitido detectar los tenues filamentos de gas que podrían conectar todos estos cúmulos entre sí.

En el Universo primigenio, una gigantesca red de filamentos gaseosos cubría todo el cosmos. Con el paso del tiempo, se empezaron a formar cúmulos galácticos en sus nodos más densos.

Los astrónomos tenían la hipótesis de que el lugar donde resultaría más fácil detectar estos tenues filamentos de gas sería entre los cúmulos de galaxias en interacción, donde los filamentos se comprimen y se calientan lentamente.

Planck ha descubierto un puente de gas caliente que une los cúmulos Abell 399 y Abell 401, cada uno de ellos con cientos de galaxias en su interior, lo que demuestra que la hipótesis era correcta.

Los datos recogidos por el telescopio europeo XMM-Newton en la banda de los rayos X permitió vislumbrar la presencia de gas caliente entre cúmulos de galaxias separados miles de millones de años luz. Los resultados de Planck proporcionan la primera prueba concluyente de su existencia.

Esta es también la primera vez que Planck detecta gas inter-cúmulo utilizando una técnica basada en el efecto SZ.

Al combinar los datos de Planck con las observaciones en la banda de los rayos X realizadas por el satélite alemán Rosat, se pudo determinar que la temperatura del gas que conforma el puente es similar a la del gas en el interior de los dos cúmulos – del orden de los 80 millones de grados centígrados.

Los primeros análisis sugieren que el gas podría ser en realidad una mezcla de los tenues filamentos de la gran red cósmica y del gas procedente de los cúmulos.

La detección de nuevos puentes conectando otros cúmulos de galaxias permitiría realizar un análisis más detallado y comprender mejor estas estructuras.

Este descubrimiento pone de manifiesto la capacidad de Planck para estudiar el entorno de los cúmulos galácticos, examinando su conexión con el gas que impregna el cosmos y a partir del cual se formaron todos los grupos de galaxias. 

Fuente: ESA

22 de noviembre de 2012

En busca de las lentes gravitacionales más potentes del firmamento

Mirando con telescopios hacia direcciones muy específicas del firmamento es factible acceder a líneas de visión singulares, formadas por dos o más lentes gravitacionales alineadas, de tal modo que sea posible ver cosas tan lejanas en el espacio y el tiempo que sería imposible captarlas de otro modo. Lo que se puede captar a través de una lente gravitacional múltiple podría abarcar incluso hasta algunas de las primeras estructuras cósmicas brillantes formadas poco después de la creación del universo.

Una lente gravitacional es el fenómeno que se genera cuando un objeto masivo en el espacio, por ejemplo un cúmulo de galaxias, cruza, desde la perspectiva visual de la Tierra, por delante de una galaxia u otro objeto luminoso que brilla en el fondo, mucho más lejos. El fuerte tirón gravitatorio del objeto masivo curva los rayos luminosos del objeto distante situado detrás y aumenta la imagen como lo hace una lente óptica. Eso permite a los astrónomos ver al objeto más distante con una resolución muy superior a la que sería posible sin el efecto de lente gravitatoria.

El equipo de la astrónoma Ann Zabludoff de la Universidad de Arizona, sus colaboradores Ken Wong y Decker French del Observatorio Steward adscrito a dicha universidad, así como Mark Ammons del Laboratorio Nacional Lawrence Livermore, ubicado en Livermore, California, y Charles Keeton de la Universidad Rutgers en Nueva Jersey, todas estas instituciones de Estados Unidos, está trabajando para buscar y analizar esas alineaciones de lentes gravitacionales.

Esquema de una lente gravitatoria. (Foto: NASA)

No es tarea fácil. En general, los sistemas masivos son escasos, y las probabilidades de tenerlos alineados son más raras aún.

En una revisión meticulosa de datos archivados en anteriores estudios del firmamento, el equipo buscó lugares donde los cúmulos masivos de galaxias estuvieran alineados de tal manera que creasen una lente gravitacional múltiple.

Los cálculos para seleccionar las mejores líneas de visión se hicieron sobre la base de este planteamiento: Si tenemos una acumulación de masa en una dirección particular, ¿cómo deberíamos distribuir esa masa a lo largo de la línea de visión para obtener el máximo beneficio? Zabludoff y sus colegas usaron como filtro la información obtenida.

El equipo combinó datos reales de los últimos rastreos del cielo con sus escenarios modelados, y seleccionó 200 puntos prometedores del firmamento. El equipo de Zabludoff ya ha comenzado a inspeccionar a fondo 10 de estas potenciales líneas de visión óptimas, y ya ha tenido oportunidad de comprobar en las observaciones preliminares que el área aparece mucho más aumentada que lo ofrecido por las lentes gravitacionales aisladas.

Información adicional

Densidad creciente en los centros de las galaxias elípticas más masivas

Las galaxias elípticas, a diferencia de las espirales, presentan una estructura más concentrada en torno a su centro. Son como inmensos óvalos de estrellas apiñadas. De entre las galaxias, se podría decir, al menos hasta ahora, que las elípticas son las más aburridas para los astrónomos y el público en general, ya que el protagonismo lo suelen tener las galaxias con forma espiral o irregular. Las galaxias de estos dos últimos tipos presentan una amplia variedad de rasgos, cada uno de los cuales potencialmente vinculable con algún episodio de la historia de la galaxia observada.

Sin embargo, lo descubierto en un nuevo estudio efectuado por astrónomos de la Universidad de Utah y otras instituciones subraya que las galaxias elípticas también pueden tener historias espectaculares.

El equipo de Adam Bolton se centró en las galaxias elípticas de mayor masa. Y ha llegado a la conclusión de que durante los últimos 6.000 millones de años, la materia que forma esas galaxias elípticas masivas se ha estado concentrando más hacia el centro de ellas. Los autores del estudio creen que esto demuestra que las grandes galaxias están estrellándose con otras grandes galaxias para formar galaxias aún más grandes, con núcleos más densos.

Lente gravitatoria donde la luz de una galaxia en el fondo se ve distorsionada por la gravedad de otra mucho más cercana. (Foto: Joel Brownstein, University of Utah, para NASA/ESA y el Sloan Digital)

Los estudios más recientes indicaban que esas galaxias masivas crecen mayormente por la vía de absorber a muchas más pequeñas. Sin embargo, lo descubierto en la nueva investigación sugiere que esas fusiones entre galaxias enormes son igual de importantes como vía de crecimiento que esa multitud de pequeños "aperitivos" engullidos en forma de galaxias pequeñas. Los resultados del estudio presentan por tanto una historia más violenta y caótica para estas inmensas galaxias elípticas que la comúnmente contada hasta ahora.

En el estudio también han trabajado Joel Brownstein, Yiping Shu y Ryan Arneson, de la Universidad de Utah, Christopher Kochanek de la Universidad Estatal de Ohio, David Schlegel del Laboratorio Nacional estadounidense Lawrence Berkeley (Berkeley Lab), Daniel Eisenstein del Centro para la Astrofísica, gestionado conjuntamente por la Universidad de Harvard y el Instituto Smithsoniano, David Wake de la Universidad de Yale, en New Haven, Connecticut, Natalia Connolly del Hamilton College en Clinton, Nueva York, Claudia Maraston de la Universidad de Portsmouth en el Reino Unido, y Benjamin Weaver de la Universidad de Nueva York.

Información adicional

7 de noviembre de 2012

Captan la luz de las primeras estrellas

Un grupo internacional de investigadores ha podido diferenciar y caracterizar mejor la luz de las primeras estrellas dentro de la denominada ‘luz de fondo extragaláctica’ o EBL (por sus siglas en inglés: extragalactic background light).

“La EBL es el conjunto de fotones que generan, sobre todo, las estrellas, pero también todos los agujeros negros del universo”, explica a SINC Marco Ajello, del Deutsches Elektronen Synchrotron DESY (Alemania) y autor principal del trabajo que publica Science.

“La luz de las primeras estrellas masivas que alguna vez brillaron en el universo está incluida en la EBL, pero como tenemos bastante buen conocimiento del resto –de las estrellas ‘normales’ que podemos ver, por ejemplo, con telescopios ópticos–, somos capaces de restringir la luz de las primeras”, explica el investigador.


El telescopio Fermi de rayos gamma ha facilitado los datos. (Imagen: NASA E/PO, Sonoma St.University, A. Simonnet)

El equipo ha tenido que solventar el hecho de que los fotones de la luz de fondo extragaláctica no se pueden observar directamente, ya que se confunden con las emisiones en primer plano de nuestro sistema solar y las galaxias.

La solución ha sido localizarlos de forma indirecta, con la ayuda de las fuentes de rayos gamma más numerosas: los blazars (núcleos galácticos muy activos con un agujero negro supermasivo central).

Los científicos han detectado los fotones de la EBL por sus efectos en los fotones de rayos gamma que emiten esos agujeros negros. Las observaciones se han efectuado con el telescopio espacial Fermi, específico para estudiar ese tipo de rayos.

“Hemos usado los blazars como ‘faros cósmicos’, de tal forma que al analizar cómo se atenúan los rayos gamma debido a la ‘niebla’ EBL, podemos cuantificar cuánta luz de fondo extragaláctica hay entre nosotros y esos objetos lejanos”, señala Ajello. “Como los blazars están distribuidos a través del universo, podemos medir la EBL en diferentes épocas”.

De esta forma, los científicos han podido caracterizar mejor la EBL dentro del espectro de luz (desplazamiento al rojo), así como la tasa de formación de la primera generación de estrellas. Con estos datos confían en poder comprender mejor la naturaleza de la formación estelar y la evolución de las galaxias.

Entre los más de un centenar de investigadores que han participado en este estudio, figuran dos españoles del Institut de Ciències de l’Espai (IEEE-CSIC) y la Institució Catalana de Recerca i Estudis Avançats (ICREA). 


Fuente: SINC

23 de octubre de 2012

Las ondas gravitacionales de una colisión entre agujeros negros pueden revelar detalles de ambos

Los agujeros negros son regiones del espacio en donde la gravedad es tan intensa que ni siquiera la luz puede escapar. Debido a ello, los agujeros negros son objetos literalmente oscuros del todo, y no emiten ningún tipo de radiación electromagnética desde su interior.

Sin embargo, se sabe que los agujeros negros que se han deformado como consecuencia de haber sufrido una colisión con otros agujeros negros o con estrellas, emiten ondas gravitacionales, las cuales fueron predichas por Einstein hace casi un siglo.

Las ondas gravitacionales son ondulaciones en el tejido del espacio-tiempo que viajan a la velocidad de la luz, pero son extremadamente difíciles de detectar.

Dos agujeros negros orbitando uno alrededor del otro emiten ondas gravitacionales y pierden energía. Al final, ambos agujeros colisionan entre sí y se fusionan en uno solo. El nuevo agujero negro resultante inicialmente está muy deformado. Usando una analogía sonora, las ondas gravitacionales de un agujero negro deformado, al igual que el sonido de las campanas, no se emiten en un tono sino en una mezcla de diversos tonos.

En el caso de los agujeros negros, la frecuencia de cada "tono" y la velocidad a la que decae dependen sólo de dos parámetros: la masa del agujero negro y la rapidez con que gira sobre sí mismo.


La interacción de dos agujeros negros produce ondas gravitatorias. (Foto: LIGO Scientific Collaboration (LSC) / NASA)

Por lo tanto, los científicos han creído durante mucho tiempo que detectando las ondulaciones del espacio-tiempo provocadas por un agujero negro y midiendo su frecuencia es factible deducir la masa y la rotación sin tener que acercarse a él.

Ioannis Kamaretsos, Mark Hannam y B. Sathyaprakash de la Universidad de Cardiff, en el Reino Unido, utilizaron el clúster de ordenadores ARCCA de dicha universidad para llevar a cabo un gran número de simulaciones por ordenador de pares de agujeros negros chocando uno contra el otro, y han descubierto que los diferentes "tonos" de un agujero negro "vibrando" como una campana golpeada por su badajo pueden aportar mucha más información de lo considerado posible hasta ahora.

Mediante la comparación de la fuerza de los diferentes tonos, es posible no sólo averiguar cosas sobre el agujero negro resultante de una fusión entre dos, sino también las propiedades originales de los dos agujeros negros que participaron en la colisión.

Incluso podría ser factible valerse de lo descubierto en este estudio para poner a prueba la teoría de la relatividad general de Einstein.


Fuentes: www.cardiff.ac.uk

18 de octubre de 2012

La antigravedad podría reemplazar a la energía oscura como causa de la expansión del Universo

Ilustración de materia y antimateria aniquilándose. Crédito: NASA/CXC/M. Weiss.




Desde finales del siglo XX, los astrónomos conocen datos que sugieren que el universo no sólo se está expandiendo, sino que lo hace a un ritmo acelerado. De acuerdo con el modelo actualmente aceptado, esta expansión acelerada se debe a la energía oscura, una misteriosa fuerza repulsiva que compone alrededor del 73% de la densidad de energía del Universo. Ahora, un nuevo estudio revela una teoría alternativa: que la expansión del Universo en realidad se debe a la relación entre materia y antimateria. Según este estudio, materia y antimateria se repelen gravitatoriamente entre sí y crean un tipo de “antigravedad” que podría eliminar la necesidad de energía oscura en el Universo.

Massimo Villata, científico del Observatorio de Turín en Italia, empezó el estudio con dos grandes suposiciones. Primero, propuso que tanto materia como antimateria tienen masa y densidad de energía positivas. Tradicionalmente, la influencia gravitatoria de una partícula es determinada únicamente por su masa. Una masa positiva indica que la partícula atraerá gravitatoriamente a otras partículas. Bajo la suposición de Villata, esto también se aplica a las antipartículas. Por lo que bajo la influencia de la gravedad, las partículas atraen a otras partículas y las antipartículas a sotras antipartículas. Pero ¿qué tipo de fuerza tiene lugar entre partículas y antipartículas?

Para resolver esta cuestión, Villata necesitó establecer una segunda suposición; que la relatividad general es invariante CPT. Esto significa que las leyes que gobiernan una partícula de materia común en un campo ordinario en el espacio-tiempo, pueden ser aplicadas de igual manera a escenarios en los que la carga (carga eléctrica y números cuánticos internos), paridad (coordenadas espaciales) y el tiempo se invierten, como sucede para la antimateria. Cuando inviertes las ecuaciones de la relatividad general en carga, paridad y tiempo para cualquier partícula o el campo por el que viaja la partícula, el resultado es un cambio de signo en el término de la gravedad, haciendo que sea negativo en lugar de positivo lo que implica una antigravedad entre las dos partículas.

Villata citó el pintoresco ejemplo de la manzana cayendo sobre la cabeza de Isaac Newton. Si una anti-manzana cae sobre una anti-Tierra, se atraerán y la anti-manzana golpeará al anti-Newton en la cabeza; sin embargo, una anti-manzana no puede “caer” sobre una Tierra normal que está hecha de materia común. En lugar de esto, la anti-manzana saldrá despedida de la Tierra debido al cambio de signo en la gravedad. En otras palabras, si la relatividad general es, de hecho, invariante CPT, la antigravedad causaría que partículas y antipartículas se repelieran mutuamente. A una escala mucho mayor, Villata afirma que el Universo se expande debido a esta potente repulsión entre materia y antimateria.

¿Qué hay del hecho de que materia y antimateria se sabe que se aniquilan entre sí? Villata resuelve esta paradoja colocando la antimateria muy lejos de la materia, en los enormes vacíos entre los cúmulos de galaxias. Se cree que estos vacíos se generaron a partir de minúsculas fluctuaciones negativas en el campo de densidad primordial, y parece poseer un tipo de antigravedad, que repele a la materia lejos de ellos. Por supuesto, la razón por la que los astrónomos en realidad no observan antimateria en los vacíos aún está en el aire. En palabras de Villata, “Hay más de una respuesta posible, las que tendrán que ser investigadas”. La investigación aparece en la edición de este mes de Europhysics Letters.

Fuente: Universe Today

Retienen átomos de antimateria durante más de 16 minutos

Átomos de hidrógeno (izquierda) y antihidrógeno (derecha).

El experimento ALPHA del Centro Europeo para la Investigación Nuclear informa que ha conseguido atrapar con éxito átomos de antimateria durante algo más de 16 minutos, lo suficiente para estudiar sus propiedades en detalle.

Vivimos en un Universo aparentemente hecho de materia, aunque en el Big Bang materia y antimateriahabrían existido en cantidades iguales. Parece que la naturaleza tiene una ligera preferencia por la materia, que permite existir a nuestro Universo y todo lo que lo compone. Uno de los métodos para investigar esta preferencia de la naturaleza por la materia es comparar átomos de hidrógeno con sus homólogos de antimateria, y esto es lo que hace que el resultado presentado publicado el domingo sea importante.

“Podemos mantener átomos de antihidrógeno atrapados durante 1.000 segundos”, explicó el portavoz del experimento ALPHA del Centro Europeo para la Investigación Nuclear (CERN), Jeffrey Hangst, de la Universidad de Aarhus (Dinamarca). “Es tiempo suficiente para comenzar a estudiarlos, incluso con el pequeño número que podemos retener hasta el momento”.

En el artículo, publicado el 5 de junio en Nature Physics, se informa de que alrededor de 300 antiátomos capturados han sido estudiados. La captura de antiátomos permitirá estudiar con precisión el antihidrógeno utilizando la espectroscopia láser o microondas para que pueda ser comparado con el átomo de hidrógeno, uno de los sistemas mejor conocidos en Física. Cualquier diferencia debe ser evidente bajo un cuidadoso examen. Asimismo, atrapar antiátomos podría aportar una aproximación complementaria para medir la influencia de la gravedad en la antimateria, que pronto será investigada por el experimento AeGIS utilizando antihidrógeno.

Otra importante consecuencia de la captura de antihidrógeno durante periodos largos es que los antiátomos tienen tiempo de volver a su estado fundamental, lo que permitirá al experimento ALPHA realizar las medidas de precisión necesarias para investigar la simetría conocida como CPT. La simetría en Física describe cómo son los procesos físicos bajo determinadas transformaciones. C, por ejemplo, consiste en intercambiar las cargas eléctricas de las partículas, P es como mirar una partícula en un espejo mientras que T se refiere a la inversión del sentido del tiempo.

Individualmente, cada una de estas simetrías está rota (los procesos no siempre son los mismos). Sin embargo, la simetría CPT en conjunto establece que una partícula que se mueve a través del tiempo en nuestro universo debe ser indistinguible de una antipartícula moviéndose hacia atrás en el tiempo en un universo espejo, algo que se piensa es perfectamente respetado por la naturaleza. La simetría CPT exige que el hidrógeno y el antihidrógeno tengan un espectro idéntico.

“Cualquier indicio de ruptura de la simetría CPT requeriría un serio replanteamiento de nuestro entendimiento de la naturaleza”, dijo Hangst. “Pero la mitad del Universo ha desaparecido (la antimateria), así que algún tipo de replanteamiento ha de hacerse”.

El experimento ALPHA comenzará a realizar medidas en antihidrógeno capturado a finales de este año. El primer paso es iluminar los antiátomos capturados con microondas para determinar si absorben exactamente las mismas frecuencias (o energías) que sus contrapartes de materia.

“Si se choca el antihidrógeno capturado con la frecuencia de microondas justa escapará de la trampa y podremos detectar su aniquilación, incluso de un solo átomo”, explicó Hangst. “Esto ofrecería la primera mirada al interior de la estructura de antihidrógeno, el elemento número uno de la tabla periódica”.

ALPHA es parte de un amplio programa del desacelerador de protones del CERN para investigar los misterios de la antimateria. En el experimento participan instituciones científicas de Dinamarca, Suecia, Reino Unido, Israel, Estados Unidos, Canadá, Brasil y Japón.
Fuente: SINC
http://www.cosmonoticias.org/retienen-atomos-de-antimateria-durante-mas-de-16-minutos/

19 de septiembre de 2012

Antimateria


Mucha de la gente que se inicia en la astronomia, generalmente se
encuentra con ésta palabra: 'antimateria', ¿pero que es realmente la antimateria? Voy a intentar explicarlo de forma sencilla para que no se necesiten elevados conocimientos físicos para entenderlo.
La materia normal como la conocemos, está compuesta de átomos, las distintas organizaciones de distintos átomos forman todos los tipos de moléculas y estos a su vez la materia. Estos átomos están compuestos por electrones, protones y neutrones, los elementos mas pequeños conocidos (sin tener en cuenta los quarks).La antimateria se compone del mismo modo, con algo llamado anti-átomos, que estan formados por antielectrones (o tambien llamados positrones), antiprotones y el extraño antineutron.Paul Adrien Maurice Dirac habia deducido, fundándose en un análisis matemático de las propiedades inherentes a las particulas subatomicas, que cada particula deberia tener su 'antiparticula'. Así pues, deberia haber un 'antielectron' identico al electron, salvo por su carga, que seria positiva, y no negativa, y un 'antiproton' con carga negativa en vez de positiva.

Pero... ¿Que es realmente la antimateria y en que se diferencian los electrones, protones y neutrones de los antielectrones, antiprotones y los ant
ineutrones?
La antimateria es materia constituida por la antiparticulas (antielectrones, antiprotones y antineutrones).
La diferencia los electrones y protones de los antielectrones y los antiprotones y los antineutrones es basicamente la carga electrica, son idénticas en aspecto físico y en constitución, sus movimientos rotatorios se han invertido, el polo sur magnetico, por decirlo asi, esta arriba y no abajo, de esta manera su carga eléctrica es la opuesta de lo que deveria de ser.
Como vimos hasta ahora, el positron es la contrapartida del electron por su carga contraria, y el antiproton es tambien 'anti' por su carga. Pero... ¿por que dice anti a una partícula que posee carga neutra? Para responder esta pregunta es necesario explicar brevemente las carateristicas de los positrones y los antiprotones.
El antielectron es tan estable como el electron, de hecho es identico a
l electron en todos sus aspectos, excepto en su carga electrica. Su existencia puede ser indefinida. Aunque el promedio de 'vida' es de una millonésima de segundo, hasta que se encuentra con un electron, durante un momento relampagueante quedaran asociados el electron y el positron; ambas partículas giraran en torno a un centro de fuerza comun. Pero la existencia de este sistema, como máximo, durará una diezmillonesima de segundo ya que se combinan el positron y el electron.
Cuando se combinan las dos particulas opuestas, se produce una neutralizacion mutua y literalmente desaparecen, no dejan ni rastro de materia ('aniquilamiento mutuo'). Pero como sabemos la materia al igual que la energia no puede desaparecer, como resultado de esto queda la energia en forma de radiacion gamma. De tal forma como habia sugerido el genio Albert Einstein: la materia puede convertirse en energia, y viceversa.
El antiprotón es tan evanescente como el positron, por lo menos en nuestro Universo. En una infima fraccion de segundo después de su creacion, la particula desaparece (al igual que el antielectron), arrastrada por algun nucleo normal cargado positivamente. Entonces se aniquilan entre si el antiproton y un proton del nucleo, que se transforman en energia y particulas menores.
En ocasiones, el proton y el antiproton solo se rozan ligeramente en vez de llegar al choque directo. Cuando ocurre esto, ambos neutralizan mutuamente sus respectivas cargas. El proton se convierte en neutron, lo cual es bastante logico. Pero no lo es tanto que el antiproton se transforme en un 'antineutron'.

Con algo de fisica elemental es facil comprender como forma un campo magnetico la particula cargada, pero ya no resulta tan facil saber por que hace lo mismo un neutron. Que por cierto ocurre. La prueba directa mas evidente de ello es que cuando un rayo de neutrones golpea sobre un hierro magnetizado, no se comporta de la misma forma que lo haria si el hierro no estuviese magnetizado. El magnetismo del neutron sigue siendo un misterio, los fisicos sospechan que contiene cargas positivas y negativas equivalentes a cero, aunque, por alguna razon desconocida, logran crear un campo magnetico cuando gira la partícula.
Sea como fuere, la rotacion del neutron nos da la respuesta a esta pregunta: ¿Que es el antineutrón? Pues, simplemente, un neutron cuyo movimiento rotatorio se ha invertido y al igual que el positron y el antiproton, muestra exactamente el mismo fenomeno de los polos invertidos.
Por lo pronto, la teoria es bastante solida, y ningun fisico lo pone en duda. La antimateria puede existir.


Pero.... ¿Existe en realidad? ¿Hay masas de antimateria en el Universo?

Si las hubiera, no revelarían su presencia a cierta distancia. Sus efectos gravitatorios y la luz que produjeran serian identicos a los de la materia corriente. Sin embargo, cuando se encontrasen con esta materia, deberían ser claramente perceptibles las reacciones masivas de aniquilamiento resultantes. Por esto, los astronomos se afanan en observar especulativamente las galaxias, para comprobar si hay alguna actividad inusitada que delate las interacciones materia-antimateria.
¿Es posible, que el Universo este formado casi enteramente por materia, con muy poca o ninguna antimateria?
Dado que la materia y la antimateria son equivalentes en todos los aspectos, excepto en su oposicion electromagnetica, cualquier fuerza que crease una originaria la otra, y el Universo deberia estar compuesto de iguales cantidades de una y otra.
Este es el dilema. La teoria nos dice que deberia haber antimateria, pero la observacion practica se niega a respaldar este hecho. ¿Y que ocurre con los nucleos de las galaxias activas? ¿Deberian ser esos fenomenos energeticos el resultado de una aniquilacion materia-antimateria? NO! Ni siquiera ese aniquilamiento es suficiente, la destruccion seria muchas veces mayor (para darse una idea de la magnitud lo mas parecido es el colapso gravitatorio de una supernova al explotar y el fenomeno resultante: el agujero negro, seria el unico mecanismo conocido para producir la energia requerida para tanta destruccion).

Un poco sobre física


Einstein se preguntaba a menudo si Dios tuvo alguna elección al crear el universo. Según los teóricos de supercuerdas, una vez que exigimos una unificación de la teoría cuántica y la relatividad general, Dios no tenía elección. La autoconsistencia por sí sola, afirman ellos, debe haber obligado a Dios a crear el universo como lo hizo.

Escuchar a E. Wittin hablar sobre Física, puede ser un viaje alucinante que nos lleve hacia el futuro que está por llegar. Él es el autor de la Teoría M de cuerdas en la que ha unificado todas las versiones de supersimetría, supergravedad, cuerda heterótica, supercuerdas y demás. Se avanza sin descanso pero, seguimos sin poder verificar de forma experimental. Se dice que esta teoría esta adelantada a su tiempo.
Aunque el perfeccionamiento matemático introducido por la teoría de cuerdas ha alcanzado alturas de vértigo y ha sorprendido a los matemáticos, los críticos de la teoría aún la señalan como su punto más débil. Cualquier teoría, afirman, debe ser verificable. Puesto que ninguna teoría definida a la energía de Planck de 1019 miles de millones de eV es verificable, ¡la teoría de supercuerdas no es realmente una teoría!
Con esa simple fçormula, Planck no dijo la energía que se necesitaba para verificar la teoría de cuerdad, es decir 1019 GeV, y, desgraciadamente, esa energía, de momento, no es de este mundo.
¡Es todo tan complejo! La topología nos dará algunas respuestas y, seguramente, las funcionaes modulares de Ramunujan también podría tener el derecho a voto en esto de la teoría de cuerdas.
El principal problema es teórico más que experimental. Si fuéramos suficientemente inteligentes, podríamos resolver exactamente la teoría y encontrar la verdadera solución no perturbativa de la teoría. Sin embargo, esto no nos excusa de encontrar algún medio por el que verificar experimentalmente la teoría; debemos esperar señales de la décima dimensión.
¿Es la belleza un principio físico?Ni en este monstruo de la Ingenieria y la técnica actual podríamos alcanzar las enertgía de Planck. Queda muy lejos de la posibilidad humana y, no sabemos si, alguna inteligencia extraterrestre la habrá podido conseguir. Estamos hablando de las fuerzas de la creación.
Aunque la teoría de supercuerdas nos da una formulación convincente de la teoría del universo (de todo lo que existe, incluyendo el espacio, el tiempo y la materia), el problema fundamental es que un test experimental de la teoría está más allá de nuestra tecnología actual. De hecho, la teoría predice que la unificación de todas las fuerzas ocurre a la energía de Planck, de 1019 miles de millones de electronvoltios (eV), que es alrededor de mil billones de veces mayor que las energías actualmente disponibles en nuestros aceleradores de partículas.
El físico David Gross (el del cuarteto de cuerdas de Princeton), al comentar el coste de generar esta energía fantástica, dice: “No hay suficiente dinero en las tesorerías de todos los países del mundo juntos. Es verdaderamente astronómica“.
Esto resulta decepcionante, porque significa que la verificación experimental, el motor que hace progresar la física, ya no es posible en esta generación actual de máquinas o con cualquier generación de máquinas en un futuro previsible. Esto significa, a su vez, que la teoría decadimensional no es una teoría en el sentido usual, porque es inverificable dado el actual estado tecnológico de nuestro planeta. Nos quedamos entonces con la pregunta: ¿Es la belleza, por sí misma, un principio físico que pueda sustituir la falta de verificación experimental?
El concepto de belleza es dispar, no todos aprecian la belleza de la misma manera, y, asimilar la belleza a un principio físico de la Naturaleza me parece banal, ya que, esa belleza, esté donde esté, es, también, Naturaleza.
Glasgow ha jurado (sin éxito) mantener estas teorías fuera de Harvard, donde él enseña. Pero admite que a menudo siente que es superado en su deseo y la teoría de supercuerdas se cuela por todas las rendijas de la universidad y, además, sus puntos de vista no son compartidos por otros Nobel como Murray Gell-Mann y Steven Weinberg que se decantan en el sentido de que la teoría de supercuerdas proporciona nuestra única fuente actual de candidatos para una teoría final con enormes señales reales de autenticidad. ¿Por qué sino de su interior surgen las ecuaciones de Einstein de la relatividad general y el número mágico 24 de Ramanujan y sus funciones modulares, que al ser generalizadas se convierten en 8 y a las que la relatividad añade 2, para finalmente exigir 10 dimensiones? Los físicos no creen en casualidades pero sí en causalidades; si algo ocurre es debido a lo que existió, al suceso anterior que dio lugar al suceso presente, y que dará lugar al suceso futuro.
El matemático indio más extraño que podía pasarse el día sin levantar la cabeza escribiendo teoremas que ni los mayores matemáticos del momento sabían descifrar. Sus funciones modulares encierran mensajes que están aún por ser descubiertos. ¿Qué nos dirán?
Fue una verdadera pena que los políticos de EEUU dieran al traste con el proyecto SSC (Supercolisionador Superconductor) por su enorme coste de más de 11 mil millones de dólares para construirlo en las afueras de Dallas, Texas, con una circunferencia de 85 Km y rodeado de enormes bobinas magnéticas donde los físicos habrían podido verificar de manera indirecta la teoría decadimensional, además de haber encontrado partículas exóticas tales como la misteriosa partícula de Higgs predicha por el Modelo Estándar. Es la partícula de Higgs la que genera la ruptura de simetría y es por lo tanto el origen de la masa de los quarks. Por consiguiente, la anulación de este proyecto del supercolisionador de partículas nos ha privado de encontrar el “origen de la masa”. Todos los objetos que tienen peso deben su masa a la partícula de Higgs. Incluso, había una posibilidad de que el SSC encontrara partículas exóticas más allá del Modelo Estándar, como “axiones”, que podrían haber ayudado a explicar la materia oscura. También el gravitón, la partícula mediadora en la gravedad, está pendiente de ser encontrada.
Bueno, es posible que aquella decepción sea compensada con el LHC que ahora trabajará a 8 TeV y, posiblemente, para el 2.013, habrá encontrado el Bosón de Higgs que cambiaría el Modelo Estándar de la Física de partículas y…otras cosas.
En aquellos momentos se podían leer comentarios como este:
“Puesto que el supercolisionador no se construirá nunca, y por lo tanto nunca detectará partículas que sean resonancias de baja energía o vibraciones de la supercuerda, otra posibilidad consiste en medir la energía de rayos cósmicos, que son partículas subatómicas altamente energéticas cuyo origen es aún desconocido, pero que debe estar en las profundidades del espacio exterior más allá de nuestra galaxia. Por ejemplo, aunque nadie sabe de dónde vienen, los rayos cósmicos tienen energías mucho mayores que cualquier cosa encontrada en nuestros laboratorios de pruebas.”
Los rayos cósmicos son impredecibles en cuanto a su energía aleatoria. Hace ya aproximadamente un siglo que fueron descubiertos por un padre jesuita de nombre Theodor Wolf en lo alto de la Torre Eiffel en París. Desde entonces, el conocimiento adquirido de estos rayos es bastante aceptable; se buscan y miden mediante el envio de contadores de radiación en cohetes e incluso en satélites a gran altura alrededor del planeta Tierra para minimizar agentes interceptores como los efectos atmosféricos que contaminan las señales. Cuando los rayos energéticos, altamente energéticos, inciden en la atmósfera, rompen los átomos que encuentran a su paso y los fragmentos que se forman caen a tierra donde son detectados por aparatos colocados al efecto en la superficie.


El detector de Utah, a unos 140 Km al suroeste de Salt Lake City, es lo suficientemente sensible como para detectar la procedencia, el origen de los rayos cósmicos más energéticos. Hasta el momento, Cygnus X-3 y Hércules X-1 han sido identificados como poderosos emisores de rayos cósmicos. Probablemente son grandes estrellas de neutrones, o incluso agujeros negros en rotación engullendo a sus estrellas vecinas que, inocentes, han osado traspasar el horizonte de sucesos. Cuando el material de la estrella traspasa ese punto de no regreso, crea un gran vórtice de energía y escupe cantidades gigantescas de radiación (por ejemplo, protones) al espacio exterior.
Muchas son las fuentes detectadas de rayos cósmicos a lo largo del Universo. Los rayos cósmicos son partículas que llegan desde el espacio y bombardean constantemente la Tierra desde todas direcciones. La mayoría de estas partículas son protones o núcleos de átomos. Algunas de ellas son más energéticas que cualquier otra partícula observada en la naturaleza. Los rayos cósmicos ultraenergéticos viajan a una velocidad cercana a la de la luz y tienen cientos de millones de veces más energía que las partículas producidas en el acelerador más potente construido por el ser humano.
Hasta la fecha, el rayo cósmico más energético detectado tenía una energía de 1020 electrón voltios. Esta cifra supone una increíble energía diez millones de veces mayor de la que se habría producido en el SSC o ahora el LHC. Dentro de este siglo, seguramente, será difícil alcanzar con nuestras máquinas, energías aproximadas. Aunque esta fantástica energía es todavía cien millones de veces menor que las energías necesarias para sondear la décima dimensión, se espera que energías producidas en el interior profundo de los agujeros negros en nuestra galaxia se acercaran a la energía de Planck. Con grandes naves espaciales en orbita deberíamos ser capaces (seremos) de sondear en lo más profundo de estas estructuras gigantescas de fuentes energéticas que, abundantemente, están repartidas a lo largo y ancho del universo.
Los rayos cósmicos están presentes por todo el Universo allí donde se producen sucesos de grandes energías, como radiogalaxias, explosiones supernovas, e incluso, en colisiones de estrellas de neutrones.
Según una teoría favorita, la mayor fuente de energía dentro de nuestra galaxia (mucho más allá de cualquier cosa imaginable), está en el mismo corazón de la Vía Láctea, en el centro, a 30.000 años luz de nuestro Sistema Solar, y puede constar de millones de agujeros negros.
En física nada se puede descartar, la inaccesibilidad de hoy a la energía de Planck se puede suplir por descubrimientos inesperados que, poco a poco, nos lleve cada vez más cerca de ella, hasta que finalmente tengamos el conocimiento y la tecnología necesarias para poder alcanzarla.
Sabemos exactamente de qué están compuestas las estrellas del cielo que, en las que por cierto, exista una gran variedad de elementos, no todas están hechas de la misma materia dependiendo a qué generación puedan pertenecer.
No olvidemos que en el siglo XIX, algunos científicos declararon que la composición de las estrellas estaría siempre fuera del alcance del experimento, y que la única manera que tendríamos de conocerlas sería la de mirar al cielo y verlas allí, inalcanzables como puntos de luz brillantes y lejanos en la oscuridad del vacío del cosmos. Sin embargo, podemos decir hoy, a comienzos del siglo XXI, año 2.008, que no sólo podemos saber la composición de las estrellas, sino también como nacen y mueren, las distancias que los separan de nosotros y un sin fin de datos más.
Particularmente creo que el ser humano es capaz de realizar todo aquello en lo que piensa dentro de unos límites racionales. Podremos, en un futuro no muy lejano, alargar de manera considerable la media de vida. Podremos colonizar otros planetas y explotar recurso mineros en las lunas de nuestro Sistema Solar; los turistas irán al planeta Marte o a las lunas Ganímedes o Europa. Los transportes de hoy serán reliquias del pasado y nos trasladaremos mediante sistemas de transportes más limpios, rápidos y exentos de colisiones. Tendremos computadoras de cifrado cuántico que harán más seguras las comunicaciones y el intercambio de datos será realmente el de la velocidad de c, así en todos los campos del saber humano.

La mente humana, conectada al Universo del que forma parte, evoluciona sin cesar y, llegado el momento, podría tener una gran cantidad de respuestas que, desde luego, necesitamos conocer para sobrevivir en este complejo y vasto Cosmos.
Estamos inmersos en un avance exponencial, imparable.
Otro ejemplo de una idea “inverificable” la tenemos en la existencia del átomo. En el siglo XIX, la hipótesis atómica se reveló como el paso decisivo en la comprensión de las leyes de la química y la termodinámica. Sin embargo, muchos físicos se negaban a creer que los átomos existieran realmente, los aceptaban como un concepto o herramienta matemática para operar en su trabajo que, por accidente, daba la descripción correcta del mundo. Hoy somos todavía incapaces de tomar imágenes directas del átomo debido al principio de incertidumbre de Heisemberg, aunque ahora existen métodos indirectos. En 1.905, Einstein proporcionó la evidencia más convincente, aunque indirecta, de la existencia de átomos cuando demostró que el movimiento browniano (es decir, el movimiento aleatorio de partículas de polvo suspendidas en un líquido) puede ser explicado como colisiones aleatorias entre las partículas y los átomos del líquido.
Albert Einstein, había demostrado la existencia de los átomos. Esto lo hizo gracias al siguiente problema: ¿por qué los granos de polen “saltan” en el agua?. Einstein llegó a la conclusión de que esto sólo podía ser posible si los átomos existían, y esto se comprobó por las exactísimas predicciones que se lograban con los cálculos de Einstein sobre este extraño movimiento: el movimiento Browniano.
Por analogía, podríamos esperar la confirmación experimental de la física de la décima dimensión utilizando métodos indirectos que aún ni se han inventado o descubierto. En lugar de fotografiar el objeto que deseamos, quizá nos conformaríamos, de momento, con fotografiar la “sombra” del mismo.

17 de septiembre de 2012

ASTROFÍSICA ¿Partículas de materia oscura aniquilándose unas a otras en el centro de nuestra galaxia?

Puede que en el centro de la Vía Láctea existan grandes cantidades de partículas de materia oscura aniquilándose entre ellas. (Recreación artística de Jorge Munnshe para Amazings / NCYT)

Muchos detalles observados en los haces de fotones de rayos gamma que emanan del centro de la Vía Láctea, encajan con la inquietante posibilidad de que existan partículas de materia oscura que estén aniquilándose entre ellas en esa región de la galaxia, a juzgar por las conclusiones a las que se ha llegado en una investigación reciente.

El equipo de Kevork Abazajian y Manoj Kaplinghat, de la Universidad de California en Irvine, analizó datos recolectados entre agosto de 2008 y junio de 2012 por el Telescopio Espacial Fermi de Rayos Gamma, un satélite de la NASA en órbita a la Tierra. Los investigadores encontraron más fotones de rayos gamma procedentes del centro de la galaxia de lo que esperaban sobre la base de los anteriores modelos científicos. Los rayos gamma son una radiación electromagnética emitida típicamente durante la desintegración radiactiva o en algunos otros procesos que envuelven altas energías.

Ésta es la primera vez que se ha observado esta nueva fuente de rayos gamma con tan alta relevancia estadística, y lo más llamativo del hallazgo es que la forma, el espectro y la tasa de emisión de los rayos gamma observados concuerdan muy bien con las teorías más aceptadas sobre la materia oscura.

Se cree que la materia oscura (la cual no es luminosa ni tampoco resulta directamente detectable) representa el 85 por ciento de la masa del universo. Su existencia sólo se puede inferir a partir de sus efectos gravitatorios sobre la materia visible.

La teoría más aceptada es que la materia oscura está compuesta de partículas masivas de interacción débil (WIMPs por sus siglas en inglés). Cuando dos WIMPs de tipos contrarios (un WIMP y un antiWIMP) entran en contacto, se aniquilan entre sí, produciéndose partículas más comunes, y en el proceso se emiten rayos gamma.

Conviene matizar que, aunque la interpretación de los datos encaja bien con esa hipótesis sobre la presencia en el centro de la Vía Láctea de partículas de materia oscura aniquilándose unas a otras, los rayos gamma podrían proceder de una fuente que no sea la destrucción de los WIMPs. La pauta observada también encaja bastante bien con la emisión de fotones desde púlsares, o con la interacción entre el gas del centro galáctico y partículas de alta energía.


Stephen Hawking reaparece en Londres en un debate sobre la ciencia



Londres, 5 sep (EFE).- El físico inglés Stephen Hawking reapareció en la Royal Society de Londres para presentar una serie documental sobre uno de sus libros y asistir a un debate sobre el futuro de la ciencia tras el descubrimiento del "bosón" de Higgs.

Hawking, de 70 años, acudió a esta histórica institución científica, con motivo de la presentación de "Stephen Hawking Great Design", una serie documental de tres episodios basada en su libro divulgativo


Foto facilitada por Discovery del físico inglés Stephen Hawking a su llegada a la …


"El gran diseño", que Discovery Channel emitirá en España a finales de septiembre.

Tanto el documental como el libro repasan la historia de los conocimientos científicos sobre el universo y explica la teoría de las cuerdas y la de las 11 dimensiones, según la que existirían un gran número de universos, algunos de los cuales albergarían vida.

Hawking, premio Príncipe de Asturias de la Concordia en 1989, presenció un debate sobre los retos científicos más importantes de cara al futuro, tras el descubrimiento en julio del "bosón" de Higgs o "partícula de Dios", que habría permitido la formación del Universo y de todo lo que existe, pero no hizo ninguna declaración al respecto.

En el debate sí participaron el astrofísico y profesor de la universidad de Cambridge (este de Inglaterra) Martin Rees, el escritor británico de ciencia ficción Will Self, y el genetista Adam Rutherford.

Entre los temas que ocuparán los primeros puestos de la lista de prioridades de la ciencia para las próximas décadas, estos expertos situaron el origen de la vida, la salud -incluida la genética-, y el cambio climático, dentro del que primará la búsqueda de fuentes de energía alternativas a los combustibles fósiles y la conservación del agua potable.

A pesar de los avances de los últimos años, Rees considera que aún hay mucho trabajo por hacer.

"Conocer las reglas del ajedrez no significa que seas un maestro del tablero. En los próximos años tendremos que entender las consecuencias de lo que hemos descubierto y, en particular, estudiar el origen de la vida", afirmó Rees, quien vaticinó que en unos 30 años habremos detectado alguna forma de vida en planetas con características similares a la Tierra.

Rutherford, por su parte, se mostró convencido de que "la segunda revolución industrial será biológica".

En su opinión, la neurología y la comprensión del funcionamiento de la conciencia serán dos de los retos para la ciencia del futuro.

"Lo más complejo de nuestro cuerpo es el cerebro, sabemos muy poco aún de cómo funciona este órgano y de la naturaleza de la conciencia, pero llegaremos ahí finalmente", subrayó Rutherford.

Hawking, que sufre una enfermedad neurodegenerativa desde los 21 años, fue uno de los científicos más jóvenes en ser elegido miembro de la Royal Society, una de las sociedades científicas más antiguas del mundo, fundada en 1660.

Viajes superlumínicos mediante warp drive (impulso por deformación)


Nada que se mueva en el tejido del espacio-tiempo puede superar la velocidad de la luz. Sin embargo, el propio tejido no esta sometido a esta restricción (o al menos eso sugiere la teoría de la inflación cósmica para resolver el problema del horizonte).

La materia provoca deformación en el espacio-tiempo. Lo que propone M. Alcubierre en su artículo “The Warp Drive: Hyper-fast Transluminic within General Relativity”, es crear una distorsión local del espacio-tiempo de manera que produzca una expansión detrás de la nave espacial, y una contracción opuesta por delante de ella. De esta manera, es el propio espacio-tiempo el que empuja lejos de la Tierra a la nave y la atrae hacia la estrella distante a la que se pretende viajar.

En el formalismo , que permite una clara interpretación de los resultados, la métrica se escribe.





Una manera de conseguir lo pretendido es hacer:



con

y

y



con y arbitrarios.

La siguiente imagen del artículo original de Alcubierre muestra como deberia deformarse el espacio-tiempo para conseguir el impulso por deformación (corresponde a los valores y en la métrica):

                                        

El Prof. Dr. Daniel Weiskopf que trabaja, entre otras cosas, en Special and general relativistic visualization, ya editó en el año 2000 un pequeño video en el que simula, mediante técnicas de Ray tracing, como veriamos diferentes cuerpos del Sistema Solar si por el espacio-tiempo que hay entre ellos y nosotros pasara una nave viajando dentro de una burbuja warp a diferentes velocidades, sub y superlumínicas, cercanas a la de la luz:

FICCIÓN O REALIDAD - IMPULSO WARP

Wormhole travel as envisioned by Les Bossinas for NASA.jpg
El empuje warp (empuje por curvatura; también conocido como "impulso de deformación" o "de distorsión") es una forma teórica de propulsión superlumínica. Este empuje permite propulsar una nave espacial a una velocidad equivalente a varios múltiplos de la velocidad de la luz, mientras se evitan los problemas asociados con la dilatación relativista del tiempo. Este tipo de propulsión se basa en curvar o distorsionar el espacio-tiempo, de tal manera que permita a la nave "acercarse" al punto de destino. El empuje por curvatura no permite, ni es capaz de generar, un viaje instantáneo entre dos puntos a una velocidad infinita, tal y como ha sido sugerido en algunas obras de ciencia ficción, en las que se emplean tecnologías imaginarias como el "hipermotor" o "motores de salto". Una diferencia entre la propulsión a curvatura y el uso del Hiperespacio es que en la propulsión a curvatura, la nave no entra en un universo (o dimensión) diferente: simplemente se crea alrededor de la nave una pequeña "burbuja" (burbuja "Warp") en elespacio-tiempo, y se generan distorsiones del espacio-tiempo para que la burbuja se "aleje" del punto de origen y se "aproxime" a su destino. Las distorsiones generadas serían de expansión detrás de la burbuja (alejándola del origen) y de contracción delante de la burbuja (acercándola al destino). La burbuja Warp se situaría en una de las distorsiones del espacio-tiempo, sobre la cual "cabalgaría" de forma análoga a como los surfistas lo hacen sobre una ola de mar.

El empleo de la curvatura espacial como medio de trasporte es un concepto que ha sido objeto de tratamiento teórico por algunos físicos (como Miguel Alcubierre con su métrica de Alcubierre, y Chris Van Den Broeck).

El empuje warp o warp drive es famoso por ser el método de desplazamiento empleado en el universo ficticio de Star Trek.

Viabilidad de la propulsión por curvatura

Entre los diferentes físicos teóricos que han analizado esta propulsión, no existe un diseño, o teoría común que permita definir una teoría sólida para viajar mediante curvatura del espacio-tiempo. El más conocido de estos diseños es el del Motor de Alcubierre (Impulso de deformación de Alcubierre. "The Warp drive: Hyper-fast travel within general relativity" publicado en el año 1994) y que asume uno de los términos empleados en la jerga de Star Trek: El Factor de Curvatura como medida de la curvatura (deformación) del espacio-tiempo y que permite el viaje (más rápido que la luz) de un objeto gracias a la curvatura generada del espacio-tiempo. Si el Espacio-tiempo se curva de forma apropiada, estrictamente hablando, el objeto o la nave no se mueve a velocidades lumínicas, de hecho se encuentra estacionaria en el espacio interior de la burbuja Warp. Esta situación estacionaria de la nave, dentro de la burbuja, haría que la tripulación no se viera afectada por grandes aceleraciones / desaceleraciones ni existiría un transcurrir del tiempo "diferente", es decir, no sufriría el efecto de la dilatación temporal, como en el caso de desplazarse a velocidades próximas a las de la luz en el espacio-tiempo. La nave, al activarse su propulsión por curvatura, para un observador exterior parecería que se mueve más rápido que la luz y desaparecería de su campo de visión en un breve lapso de tiempo al expandirse el espacio-tiempo de la nave con respecto a ese observador.

Miguel Alcubierre hace referencia a la necesidad de la materia extraña (también denominada materia exótica) para el empuje warp. La existencia de materia exótica no es teórica y el efecto Casimir lleva a suponer la existencia de dicha materia. Sin embargo, la generación de materia exótica, y su sostenimiento, para el desarrollo de un empuje de curvatura (o para mantener abierta la "garganta" de un agujero de gusano) es impracticable. Algunos métodos o teorías asociados con la creación/sostenimiento de la materia exótica apuntan a que la materia exótica debería moverse, localmente a una velocidad superior a la de la luz (y a la existencia de los denominados taquiones). Otras teorías, apuntan que se puede evitar este movimiento a una velocidad superior a la de la luz pero implicaría la generación de una singularidad desnuda al frente de la burbuja Warp. Sea por un método u otro, la creación /sostenimiento de materia exótica, en particular y el uso de empujes de curvatura violan, a priori, diferentes condiciones de energía en el ámbito de la teoría del campo cuántico. Alcubierre, concluyó que la generación de una burbuja Warp era inviable ya que, según sus cálculos iniciales, necesitaría para su creación (y las distorsiones del espacio-tiempo) más energía que la existente en el universo.

Un análisis posterior del doctor Van Den Broeck ("On the (im)possibility of warp bubles" publicado en 1999), de la Universidad Católica de Leuven (Bélgica) ofreció como resultado una energía inferior a la calculada inicialmente por Alcubierre (reducida por un factor de 10 elevado a 61). Sin embargo, esto no indica que la propuesta sea realista, tal y como indicó Van Den Broeck, ya que calculó la energía necesaria para transportar varios átomos a poco menos que el equivalente a la de tres masas solares.

No obstante, un estudio de 2008 a cargo de Richard K. Obousy y Gerald Cleaver, de la universidad de Baylor (Texas), en la que se estudian los efectos de un espacio-tiempo de varias dimensiones (como predice la teoría de cuerdas), rebaja la energía necesaria para mover una nave de 1000m3 a velocidades superlumínicas a "sólo" 1045 J; el equivalente a la energía contenida en la masa de Júpiter.

En este mismo estudio, se estima una velocidad máxima teórica para un motor warp de 1032c, si bien se trataría de un límite inútil desde el punto de vista práctico, pues para alcanzar esa velocidad arbitrariamente alta se necesitaría más energía de la disponible en el universo.

A principios del siglo XXI, la construcción de un motor de curvatura está lejos de convertirse en una realidad, debido tanto a la tecnología existente como a la elevada energía necesaria para su desarrollo. Parecen existir además otros impedimentos teóricos a un viaje superlumínico con esta tecnología, como la inestabilidad cuántica de la burbuja o laradiación de Hawking. No obstante, no existen argumentos sólidos que parezcan impedir viajes WARP sublumínicos.


El motor Warp en Star Trek
Evolución de motores Warp

En la historia de Star Trek se reconoce que el motor de curvatura fue inventado, en la Tierra, por Zefram Cochrane. La película Star Trek: Primer Contacto muestra como, en el año 2063, Cochrane realiza el primer viaje de curvatura de la especie humana, usando un antiguo misil nuclear intercontinental, modificado para viajar en el espacio y, una vez ahí, generar una burbuja Warp. Cochrane, para crear la burbuja Warp alrededor de la nave -y distorsionar el Espacio-tiempo para su desplazamiento- precisó de una inmensa cantidad de energía (que obtuvo gracias a la reacción entre matería-antimateria). Este primer viaje supuso un hito, permitió alcanzar un factor de curvatura de 1,0 y condujo directamente al primer contacto con una raza extraterreste: los vulcanos.

En la protosecuela Star Trek: Enterprise se establece que otras civilizaciones disponían del motor de curvatura antes que los humanos, como los vulcanos, siendo estos los que disponían de la tecnología de propulsión a curvatura más avanzada del Siglo XXI. En esta serie se muestran los viajes de la primera nave terrestre capaz de obtener un factor de curvatura de 5,1 lo que aplicando la "fórmula de curvatura", equivale a unos 39.767.468'5 Kilómetros por segundo, alcanzando la estrella más próxima a la Tierra (Proxima Centauri - 4'25 años luz) en aproximadamente 11'69 días. En la serie clásica (mitad del siglo XXIII) las naves son capaces de obtener un Factor de Curvatura de 8 (distancia Tierra - Proxima Centauri en 3'029 días).

Es necesario destacar que las velocidades equivalentes de los factores de curvatura no han sido proporcionados en ningún episodio o película de Star Trek. Los valores indicados en este artículo se han encontrado (o extrapolado) en manuales técnicos u otros medios electrónicos cuya propiedad está vinculada a los poseedores de los derechos de Star Trek.


"Transwarp"

Este termino ha sido empleado refiriéndose a la forma avanzada de propulsión que excede los límites de los motores de curvatura tradicionales. Por lo general, este sistema "Transwarp" es comúnmente utilizado por los borg aunque, la Flota estelar también realizó algún que otro experimiento en esa línea, tal y como se observa en Star Trek III: En busca de Spock. Algunos episodios de "Voyager" y "The Next Generation" parecen indicar que el sistema "Transwarp" empleado por los Borg se describe mejor como un conducto (del tipo agujero de gusano) a través del subespacio ( es una característica del Espacio-tiempo el cual facilita el tránsito superluminal, en la forma de viaje interestelar o de transmisión de información), en el cual se introduce la nave trasladandose, por su interior, al punto de destino.

Los borg utilizan los conductos "Transwarp" para moverse rápidamente a través de la galaxia. Estos, descubrieron la existencia de conductos "Transwarp" y configuraron redes de conductos entre sectores importantes de la galaxia para facilitar su movimiento en ésta (episodio de la serie Voyager "Endgame"). Estos conductos "Transwarp", utilizados por los borg, son activados mediante un pulso de taquiones (partículas que se desplazan a velocidades superlumínicas y permiten viajar, de forma equivalente, a veinte veces los factores warp de los motores de curvatura tradicionales. Además, los Borg utilizan bobinas "Transwarp" para generar conductos "Transwarp" temporales.

Velocidad de curvatura. Factor de curvatura

La unidad empleada con la velocidad de curvatura es el factor de curvatura ("warp factor"). La equivalencia entre factores de curvatura obtenidos por los reactores warp y velocidades medidas en múltiplos de la velocidad de la luz es en cierto modo ambigua.

Según la guía para escritores de episodios de Star Trek de la Serie Original, los factores warp se obtienen mediante la aplicación de la siguiente fórmula cúbica:


donde w es el factor warp,
 
es la velocidad medida en el espacio normal y c es la velocidad de la luz. Según esta fórmula, "warp 1" es equivalente a la velocidad de la luz, "warp 2" equivale a 8 veces la velocidad de la luz, "warp 3" equivale a 27 veces la velocidad de la luz, etc.



Tabla de equivalencias Factor curvatura y velocidad de la luz .
Fact. CurvaturaVelocidad equivalente (múltiplos de c)Tiempo necesario para recorrer 1 pársec (en días)
1,0001,0001.189,90
2,0008,000148,74
3,00027,00044,07
4,00064,00018,59
5,000125,0009,52
6,000216,0005,51
7,000343,0003,47
8,000512,0002,32
9,000729,0001,63
9,500857,3751,39
9,975992,5191,20



Sin embargo, esta escala entra en conflicto con el uso que se ha dado habitualmente, ya que la velocidad que se alcanza sería insuficiente para permitir los viajes que aparecen en las series de televisión. Algunos episodios de la serie original situaban a la nave Enterprise en peligro si viajaba a factores de warp elevados (en el episodio "That Witch survives" este factor se situaba en 14,1).

Para Star Trek: La Nueva Generación y las subsiguientes series, el guionista de Star Trek Michael Okuda preparó una nueva fórmula basada en la original, pero con una diferencia importante.

Para factores warp comprendidos entre 1 y 9, se aplicó un factor warp ligeramente más rápido que el de la serie original, pero la velocidad seguía variando según una potencia fija del factor:

                                                                     

Pero en el intervalo semiabierto comprendido entre warp 9 y warp 10, se hizo que el exponente que afecta a w incrementara de forma no convergente y, al aproximarnos a warp 10 de manera asintótica, el exponente se hace infinito. Por ello, según la escala Okuda, también tienden a infinito las velocidades que se obtienen al aproximarnos a warp 10.
Nueva escala warp de Michael Okuda.


La Nueva Escala situa el factor de curvatura 10 como un máximo inalcanzable (identificado como el "Límite de Eugene" en la página del creador / productor de la serie, Gene Roddenberry). El factor de curvatura 10 es una asíntota que representa, inicialmente, velocidad infinita. En el episodio de Star Trek: Voyager titulado "Momento crítico" ("Threshold") uno de los personajes logra alcanzar el factor de curvatura 10, pero con la consecuencia de sufrir una hiper-evolución genética.

En las distintas series, sólo hay un episodio en el que se de una equivalencia concreta. Se trata del episodio número 37 de la serie Voyager donde el navegante Tom Paris describe la velocidad del Voyager al alcanzar el factor 9,9 como de 4 mil millones de millas por segundo, lo que sería equivalente amás de 21.000 veces la velocidad de la luz.

Como referencia acerca de los factores de curvatura sostenidos (de crucero), hay que indicar que, a mediados del siglo XXIV, la nave Enterprise-D viaja a un factor de curvatura de 9,2 y la nave de clase "Intrepid" Voyager puede sostener un factor de 9,975.

Núcleo de Curvatura ("Warp core")

La principal forma de propulsión en el universo Star Trek es el "desplazamiento del campo gravimétrico", más comúnmente definido como Núcleo de Curvatura. El Núcleo de Curvatura es un ficticio sistema de energía basado en la reacción materia-antimateria que proporciona la energía suficiente como para generar la distorsión del Espacio-tiempo. La reacción entre materia-antimateria está controlada mediante los denominados "cristales de dilitio" (cristales supuestamente que no presentan reacción alguna cuando son bombardeados con elevados niveles de radiación). La cámara de la reacción está rodeada de un campo magnético que permite contener la antimateria y evitar las reacciones con la materia de la nave. La energía liberada durante la reacción es empleada para crear el campo de curvatura que se denomina "burbuja Warp". Este campo distorsiona el espacio alrededor de la nave y la acelera mientras el espacio dentro de la burbuja, técnicamente, no se desplaza, por lo que la nave no experimenta ninguna dilatación temporal. El tiempo transcurre dentro de la burbuja, al mismo ratio que en el punto de origen o de destino.