Mostrando entradas con la etiqueta Física. Mostrar todas las entradas
Mostrando entradas con la etiqueta Física. Mostrar todas las entradas

20 de febrero de 2013

¿Hay fenómenos cuánticos independientes del espacio-tiempo en algunos aspectos?

[Img #12092]
Imagen: Recreación artística de Jorge Munnshe / Amazings / NCYT


El que un objeto cuántico se comporte como una onda o como una partícula depende, según una interpretación clásica de la mecánica cuántica, de la elección del instrumento de medición empleado para observar el sistema, y por tanto del tipo de medición que se hace.

El equipo de físicos de Anton Zeilinger, de la Universidad de Viena y la Academia de Ciencias de Austria, ha profundizado en este fenómeno a través del análisis detallado de dos experimentos recientes.

Si un fotón determinado se comporta como una partícula o como una onda puede depender también de la medición realizada en un segundo fotón, entrelazado cuánticamente con el primero. El entrelazamiento cuántico es un fenómeno en el que dos o más partículas (por ejemplo fotones) se "enlazan" entre sí de modo inextricable, hasta el punto de que al medir ciertas propiedades de un objeto se revela información sobre el otro (o los otros).

En los nuevos experimentos, dos fotones entrelazados cuánticamente están separados por una distancia tan grande que ninguna transferencia de información entre ellos sería lo bastante rápida (a velocidades que nunca pueden superar la velocidad de la luz) para que la información cuántica de uno pase al otro. Aún así, según se comprobó en ambos experimentos, si el primer fotón se comporta como una onda o como una partícula, sigue dependiendo de la medición realizada en el segundo. Si bien los resultados de estos experimentos son plenamente compatibles con la física cuántica, una explicación clara en términos de causalidad (causa y efecto) es imposible, ya que, según la teoría de la relatividad de Einstein, cualquier transferencia de información se limita a la velocidad de la luz, y en los experimentos la información entre los fotones debería haber viajado a una velocidad más rápida que la de la luz para que hubiera causalidad.

Los experimentos sobre los fundamentos de la mecánica cuántica tienen una larga historia, plagada de dificultades, y fueron desarrollados para intentar esclarecer las implicaciones para el mundo físico real de algunos de los planteamientos teóricos de la mecánica cuántica, un tanto fantasmales para la lógica convencional.

Un hito importante fue el experimento de 1978 hecho por John Wheeler, el último colaborador de Einstein. En este experimento, un solo fotón, en un interferómetro, tiene dos caminos que podría tomar. En su carácter de onda, el fotón tomará los dos caminos al mismo tiempo (de modo comparable en ciertos aspectos a cómo la onda en el agua provocada por una piedra arrojada a un estanque se propaga en todas direcciones). En su carácter de partícula, el fotón necesita "decidir" cuál de los dos caminos tomará. Wheeler demostró, de acuerdo con la mecánica cuántica, que la "decisión" de si el fotón se comporta como una onda o como una partícula se puede tomar incluso después de que haya entrado en el interferómetro.

En todos los experimentos anteriores, la posibilidad de que la elección de la medición tuviera una influencia causal en la observación real (mediante la transmisión de información a una velocidad más lenta que la de la luz) todavía era plausible.

El análisis detallado de los resultados de los dos experimentos recientes antes mencionados, uno de los cuales se llevó a cabo en Viena (Austria) y el otro en las Islas Canarias (España), ha dado ahora como conclusión definitiva que esa posibilidad de la explicación causal debe ser descartada.

La distancia entre los fotones de los experimentos es demasiado grande para que la elección del tipo de medición efectuado en un fotón tenga influencia sobre el segundo, ya que si se tratase de una relación de causa y efecto, la información debería haber viajado a una velocidad superior a la de la luz.

"Nuestro trabajo refuta la idea de que un sistema cuántico pueda, en un momento dado en el tiempo, aparecer definitivamente como una onda o definitivamente como una partícula. Esto requeriría una comunicación más rápida que la luz, lo cual está radicalmente en desacuerdo con la teoría de la relatividad de Einstein. Y, por tanto, creo que este punto de vista debe ser abandonado por completo. En cierto sentido, los eventos cuánticos son independientes del espacio y del tiempo", dice Anton Zeilinger.

Información adicional



Fuentes : http://www.pnas.org/content/early/2012/12/28/1213201110 , http://noticiasdelaciencia.com/not/6427/_hay_fenomenos_cuanticos_independientes_del_espacio_tiempo_en_algunos_aspectos_/

21 de diciembre de 2012

Un nuevo estudio no encuentra el “núcleo” de materia oscura de Abell 520

Distribución y cantidad de materia oscura en Abell 520. La imagen superior fue obtenida por el equipo de Douglas Clowe; la inferior, por el equipo de James Jee. Crédito: NASA, ESA, y D. Clowe; NASA, ESA, y J. Jee.







Ahora lo ves… ahora no. Douglas Clowe de la Universidad de Ohio en Athens (Ohio), informa que nuevas observaciones del Telescopio Espacial Hubble no encuentran un cúmulo de materia oscura inusualmente denso en el Universo sobre el que otro equipo de Hubble informó a principios de año.

La región de interés se encuentra en el centro de una colisión entre los cúmulos de galaxias masivos de Abell 520, ubicado a 2.400 millones de años-luz de distancia. “El resultado anterior representaba un misterio. Sin embargo, en nuestras observaciones no vimos nada sorprendente en el núcleo”, dijo Clowe. “Nuestras mediciones concuerdan completamente con la forma en que esperaríamos que se comportase la materia oscura”.

Dado que la materia oscura no es visible, su presencia y distribución es encontrada indirectamente a través de sus efectos gravitatorios. La gravedad tanto de la materia oscura como de la luminosa curva el espacio, ‘doblando’ y distorsionando la luz proveniente de las galaxias y cúmulos tras ella, actuando como una lupa gigante. Los astrónomos pueden usar este efecto, llamado lente gravitatorio, para inferir la presencia de materia oscura en los cúmulos de galaxias masivos. Ambos equipos usaron esta técnica para trazar un mapa de la materia oscura del cúmulo en fusión.

Clowe está animando a otros científicos a estudiar los datos del Hubble y realizar sus propios análisis sobre el cúmulo.

Fuente: HubbleSite

13 de diciembre de 2012

Fotones, entrelazamiento cuántico, y rotar en ambos sentidos al mismo tiempo

Falso color de un haz de láser que presenta una superposición de 100 de mano derecha y la mano izquierda 100 quanta de momento angular orbital, resultando en 100 100 = 200 puntos brillantes en el anillo interior. (Copyright: Robert Fickler / Universidad de Viena)



Uno de los fenómenos más fascinantes de la física cuántica es el entrelazamiento cuántico. Los cuantos entrelazados de luz se comportan como si fueran capaces de influenciarse unos a otros, aún estando separados espacialmente. Esto no significa que se influyan mutuamente entre dos puntos del espacio a través de un "agujero de gusano", pero sí es un fenómeno enigmático y complejo.

La cuestión de si el entrelazamiento cuántico se limita o no a objetos pequeñísimos surgió ya en los primeros días de la física cuántica. Ahora, un equipo de especialistas del Centro de Ciencia y Tecnología Cuántica de Viena, ubicado en la Universidad de Viena, Austria, y el Instituto de Óptica Cuántica e Información Cuántica en la Academia Austriaca de Ciencias, ha dado el primer paso para comprobar el entrelazamiento cuántico con fotones en rotación.

Rayos de luz láser sin intensidad en el medio. (Foto: Robert Fickler, University of Vienna)




Para ilustrar el concepto, una patinadora artística sobre hielo que estuviera dotada de las necesarias propiedades de la mecánica cuántica, tendría la extraña habilidad de dar vueltas simultáneamente a la derecha y a la izquierda. Además, la dirección de sus rotaciones podría estar correlacionada con las vueltas que realizase un patinador "entrelazado" con ella, aunque ambas personas estuvieran girando en pistas de patinaje sobre hielo situadas en continentes diferentes. Cuanto más rápido girasen ambas personas, mayor sería el número cuántico de su sentido de rotación, el llamado momento angular.

Desde hace unos 20 años se sabe que, al menos en teoría, no hay límite superior para el momento angular de los fotones. Sin embargo, los experimentos anteriores estuvieron limitados a momentos angulares muy débiles y números cuánticos pequeños, debido a restricciones físicas.

En cambio, en el experimento ideado por el equipo de Robert Fickler, es posible en teoría crear entrelazamiento, independientemente de la fuerza del momento angular o la magnitud de su número cuántico. Si esto se pudiera llevar a la práctica, sería viable lograr el entrelazamiento cuántico de objetos macroscópicos, y convertir en realidad el ejemplo de la pareja de patinaje artístico con entrelazamiento cuántico cuyos miembros simultáneamente giran a la derecha y a la izquierda.

Sin embargo, muchos obstáculos deberán ser superados antes de poder realizar semejante experimento con objetos macroscópicos.

Información adicional


Fuentes : http://medienportal.univie.ac.at/presse/aktuelle-pressemeldungen/detailansicht/artikel/world-record-for-the-entanglement-of-twisted-light-quanta/

3 de diciembre de 2012

Sistema de interferometría atómica para detectar ondas gravitacionales

La fusión de un sistema binario puede producir ondas gravitatorias. (Foto: NASA)

Se está desarrollando una tecnología pionera, con precisión atómica, para detectar algo hasta ahora imperceptible: Las ondas gravitacionales, que son "arrugas" en el espacio-tiempo causadas por fenómenos cósmicos de gran violencia, entre los que se incluye el propio Big Bang, o Gran Estallido, la explosión colosal con la que se creó el universo.

El proyecto de desarrollar una técnica práctica de interferometría atómica lo está llevando a cabo un equipo de investigadores del Centro Goddard de Vuelos Espaciales de la NASA, en Greenbelt, Maryland, la Universidad de Stanford en California, y la empresa AOSense, Inc., en Sunnyvale, California.

Algunos consideran que esta novedosa tecnología para mediciones ultraprecisas es una panacea tecnológica para cosas que van desde medir ondas gravitaciones hasta guiar submarinos y aviones.

Aunque el equipo de Babak Saif, físico de la NASA, y Mark Kasevich, físico de la Universidad de Stanford, creen que esta tecnología es muy prometedora para diversas aplicaciones espaciales, incluyendo sobrevolar un asteroide cercano a la Tierra para medir su campo gravitacional y deducir su composición, hasta ahora han centrado sus esfuerzos en la obtención de sensores que puedan detectar a las escurridizas ondas gravitacionales.

Predichas por la teoría de la relatividad general de Albert Einstein, las ondas gravitacionales aparecen cuando objetos celestes de gran masa se mueven y perturban el tejido del espacio-tiempo que les rodea. Para cuando estas ondas alcanzan la Tierra, son tan débiles que la única consecuencia es que el planeta se expande y se contrae menos que lo que mide un átomo. Esto hace muy difícil detectar ondas gravitatorias con equipamiento instalado en tierra, ya que el "ruido" del entorno, como por ejemplo el de las mareas oceánicas y el de terremotos o incluso pequeños temblores sísmicos, puede eclipsar fácilmente los leves murmullos que son esas ondas gravitacionales.

Aunque numerosas observaciones astronómicas han señalado la existencia de las ondas gravitacionales, ningún instrumento u observatorio ha podido detectarlas directamente. El equipo de Saif y Kasevich cree que la interferometría atómica es la clave para alcanzar ese objetivo tan codiciado.


El potencial de la interferometría atómica reside en su precisión. Aunque la ruta seguida por un átomo variara en sólo un picómetro, un interferómetro atómico podría detectar la diferencia.
Debido a esta gran precisión, la aplicación astronómica donde mayores avances puede lograr la interferometría atómica es probablemente la detección de ondas gravitacionales.
Desde que empezaron su colaboración, los miembros del equipo de Saif y Kasevich han diseñado un sistema láser especial para interferometría atómica que se planea probar en una torre de unos 10 metros (33 pies) en un laboratorio de física de la Universidad de Stanford.
Si se confirma la existencia de las ondas gravitacionales, este hallazgo revolucionaría la astrofísica, dando a los científicos una nueva herramienta para estudiar cosas que van desde los agujeros negros hasta el universo existente antes de que la niebla de plasma de hidrógeno se enfriara y permitiera la formación de átomos.
Información adicional

Fuentes : http://www.nasa.gov/topics/technology/features/atom-optics.html

26 de noviembre de 2012

Funneling la energía del sol

Una visualización del embudo de energía solar de amplio espectro.Imagen: Yan Liang



Ingenieros del MIT proponer una nueva forma de fotones para el aprovechamiento de la electricidad, con el potencial de capturar un espectro más amplio de energía solar.



La búsqueda de aprovechar un espectro más amplio de la energía solar para producir electricidad ha dado un giro radicalmente nuevo, con la propuesta de un "embudo energía solar" que se aprovecha de los materiales bajo tensión elástica. "Estamos tratando de usar deformaciones elásticas para producir propiedades sin precedentes ", dice Ju Li, profesor del MIT y autor de un artículo que describe el nuevo concepto solar de embudo que se publica esta semana en la revista Naturaleza Fotónica . En este caso, el "embudo" es una metáfora: Los electrones y sus homólogos, agujeros -, que son separados de los átomos por la energía de los fotones - son impulsados ​​hacia el centro de la estructura por fuerzas electrónicas, no por la gravedad como en un embudo de hogar. Y, sin embargo, como sucede, el material realmente asume la forma de un embudo: 
Es una lámina estirada de material infinitamente delgada, empujado hacia abajo en su centro por una aguja microscópica que guiones la superficie y produce una curva, como la forma de embudo . La presión ejercida por la aguja imparte deformación elástica, lo que aumenta hacia el centro de la hoja. Los cambios variables de deformación de la estructura atómica, lo suficiente como para "afinar" las diferentes secciones para diferentes longitudes de onda de luz -. Incluyendo no luz sólo visible, sino también parte del espectro invisible, que representa gran parte de la energía solar de Li, que tiene citas conjuntas el profesor Battelle Energy Alliance de la Ciencia e Ingeniería y profesor de ciencias de los materiales e ingeniería, ve a la manipulación de la tensión en los materiales como la apertura de un nuevo campo de investigación.Strain - definida como el empujar o tirar de un material a otro forma - puede ser elástico o inelástico. Xiaofeng Qian, un post-doctorado en el MIT del Departamento de Ciencia e Ingeniería Nuclear, que fue co-autor del estudio, explica que corresponde a la deformación elástica estirada enlaces atómicos, mientras inelástico o plástico, cepa corresponde a roto o desconectado enlaces atómicos. Un resorte que se estira y se libera es un ejemplo de deformación elástica, mientras que una pieza de papel de aluminio arrugado es un caso de la deformación plástica. El nuevo solar-embudo de trabajo utiliza la cepa controlada con precisión elástico para gobernar potencial electrones en el material. 
El equipo del MIT utiliza modelado por ordenador para determinar los efectos de la tensión en una capa delgada de disulfuro de molibdeno (MoS 2 ), un material que puede formar una película de sólo una sola molécula (alrededor de seis angstroms) de espesor. Resulta que la deformación elástica , y por lo tanto el cambio que se induce en la energía potencial de electrones ', cambia con la distancia desde el centro del embudo - al igual que el electrón en un átomo de hidrógeno, excepto que esta "átomo artificial" es mucho más grande en tamaño y es de dos dimensiones. En el futuro, los investigadores esperan poder llevar a cabo experimentos de laboratorio para confirmar el efecto. 
A diferencia de grafeno, otro material prominente de película delgada, MoS 2 es un semiconductor natural: Tiene una característica fundamental, conocida como una banda prohibida, que le permite ser realizado en células solares o circuitos integrados. Pero a diferencia de silicio, ahora se utiliza en la mayoría de células solares, la colocación de la película bajo tensión en el "embudo solar energía" configuración hace que su banda prohibida que varían en toda la superficie, de modo que las diferentes partes de la misma responden a diferentes colores de luz. En un solar orgánico celda, el par electrón-hueco, llamado un excitón, se mueve al azar a través del material después de haber sido generado por los fotones, lo que limita la capacidad de producción de energía. "Es un proceso de difusión," Qian dice, "y es muy ineficiente." Pero en el embudo solar, añade, las características electrónicas del material "que conduce a la zona de recogida [en el centro de la película], que debe ser más . eficiente para la recogida de carga " La convergencia de cuatro tendencias, Li dice, "ha abierto este campo de deformación elástica recientemente ingeniería": el desarrollo de materiales nanoestructurados, como los nanotubos de carbono y Mos 2 , que son capaces de retener grandes cantidades de elástico cepa indefinidamente; el desarrollo del microscopio de fuerza atómica y de próxima generación instrumentos nanomecánicos, que imponen la fuerza de una manera controlada; microscopía electrónica y de sincrotrón, necesaria para medir directamente el campo de deformación elástica, y electrónica de estructura métodos de cálculo para la predicción de los efectos de deformación elástica de las propiedades físicas y químicas de un material. "Las personas sabían desde hace mucho tiempo que mediante la aplicación de alta presión, puede provocar grandes cambios en las propiedades del material", dice Li. Pero el trabajo más reciente ha demostrado que el control de la tensión en direcciones diferentes, tales como corte y tensión, pueden producir una enorme variedad de propiedades. 
Una de las primeras aplicaciones comerciales de elástico-deformación de ingeniería fue el logro, por parte de IBM e Intel, de un 50 por ciento de mejora en la velocidad de los electrones simplemente impartir una tensión elástica de un 1 por ciento en los canales de silicio a nanoescala en los transistores.Nikhil Koratkar, profesor de ingeniería mecánica, aeroespacial y nuclear y la ciencia de los materiales e ingeniería en el Rensselaer Polytechnic Institute, que fue co-autor de un documento sobre mojado transparencia en el grafeno publicado a principios de este año, que llegó a una conclusión diferente, dice que "los autores han hecho un gran trabajo en el estudio de los límites de la transparencia humectante y explicar cuando se rompe. Ellos muestran que el efecto de transparencia humectante de roturas de grafeno por completo en la super-hidrofóbicas superficies ... [y] en super-hidrofílicas superficies."El trabajo del grupo del MIT avanza significativamente nuestra comprensión del comportamiento de humectación fundamental de grafeno monocapa de grafeno y las superficies recubiertas," Koratkar añade. El trabajo se hizo con Ji Feng de la Universidad de Pekín y Huang Cheng-Wei, y fue apoyado por los EE.UU. National Science Foundation, la Oficina de EE.UU. de la Fuerza Aérea de Investigaciones Científicas y la Fundación Nacional de Ciencias Naturales de China.
Fuentes : http://web.mit.edu/newsoffice/2012/funneling-the-suns-energy-1125.html

Ver moléculas justo cuando se fragmentan y electrones en el instante en que salen de sus átomos

Usando los pulsos de láser más veloces del mundo, capaces de captar el movimiento ultrarrápido de electrones y átomos, un equipo de físicos ha detectado la actividad de moléculas fragmentándose y de electrones saliendo fuera de sus átomos.

En 1878, una serie de fotografías que hoy es emblemática resolvió al instante un añejo misterio: ¿Un caballo al galope toca el suelo en todo momento? Las imágenes de Eadweard Muybridge tomadas a lo largo de una pista de carreras demostraron que no, y marcaron el inicio de fotografía de alta velocidad.

Aproximadamente 134 años más tarde, unos investigadores en el departamento de física de la Universidad de Arizona han resuelto un misterio similar, uno en el que moléculas de oxígeno (concretamente O2 u oxígeno molecular) han sustituido al caballo, y destellos de láser ultrarrápidos y de alta energía, han reemplazado a las placas fotográficas de Muybridge.

Usando fogonazos extremos de luz láser ultravioleta de 0,0000000000000002 segundos de duración, Arvinder Sandhu y su equipo han logrado discernir los fenómenos ultraveloces que se desencadenan cuando a las moléculas de oxígeno se las dispara de ese modo, y han obtenido imágenes del instante preciso en el que se fragmentan dichas moléculas y salen electrones de sus átomos.







Un momento de los experimentos. (Foto: Beatriz Verdugo/UANews)

La observación de sucesos ultracortos en átomos y moléculas se ha vuelto cada vez más importante, ya que los científicos están tratando de comprender mejor procesos cuánticos en la escala de los electrones, y a la postre incluso controlar esos procesos para diseñar nuevas fuentes de luz, ensamblar nuevas moléculas, o diseñar dispositivos electrónicos ultrarrápidos, entre otras innumerables posibilidades.

Aunque el grupo de Sandhu no posee el récord mundial de generar los pulsos de luz más cortos, ha sido pionero en su uso como herramientas para resolver muchas cuestiones científicas.

Su último logro es el ya referido, una serie de imágenes en tiempo real que documenta lo que le ocurre a una molécula de oxígeno cuando se fragmenta después de haber absorbido demasiada energía como para mantener la unión estable entre sus dos átomos.
Láseres de alta energía son necesarias para generar los impulsos súper cortos necesarios para "congelar la acción" de los procesos moleculares. (Foto: Beatriz Verdugo / UANews)


Poder desentrañar procesos moleculares que se desarrollan en escalas de tiempo tan cortas ayuda a los científicos a entender mejor fenómenos como por ejemplo la dinámica microscópica subyacente en la formación y destrucción del ozono en la atmósfera de la Tierra, y en un futuro podría ayudar a idear técnicas con las que poder controlar procesos moleculares, algo que sería de gran utilidad para muchas aplicaciones prácticas.

Información adicional

Fuentes : http://uanews.org/story/freezing-electrons-flight

9 de octubre de 2012

Serge Haroche y David J. Wineland premio Nobel de Física 2012 por sus estudios en física cuántica

  • Por sus trabajos en óptica cuántica que analizan interacción entre luz y materia 
  • Sus estudios han permitido la fabricación de relojes de gran precisión 
  • Han sentado las bases para la futura creación de un 'super ordenador cuántico'
El francés Serge Haroche y el estadounidense David J. Wineland fueron este martes galardonados con el Premio Nobel de Física 2012 por su aportación a la física cuántica, según anunció la Real Academia de Ciencias de Suecia.
Ambos recibieron este galardón por sus trabajos sobre la interacción entre la luz y la materia y sus "revolucionarios métodos experimentales que han permitido la medición y la manipulación de sistemas cuánticos individuales", según la argumentación de la Real Academia de Ciencias de Suecia.

"Han abierto la puerta a una nueva era de experimentación en la física cuántica", subrayó el fallo del premio, "al lograr la observación directa de partículas cuánticas individuales sin destruirlas".

Haroche y Wineland han desarrollado sus trabajos en el campo de la óptica cuánticaun ámbito en que "ha habido progresos considerables desde mediados de los años ochenta", según ha señalado la Academia Sueca.

"Sus innovadores métodos han contribuido a que este campo de investigación haya dado los primeros pasos hacia la fabricación de un nuevo tipo de ordenador súper rápido basado en la física cuántica", prosigue el comunicado.

"Es probable que el ordenador cuántico modifique nuestra vida diaria en este siglo de la misma forma radical en que lo hicieron los ordenadores clásicos el siglo pasado", continúa la Academia.

Las investigaciones de los dos galardonados "también han permitido la fabricación de relojes extremadamente precisos que podrían convertirse en la base futura de una nueva medida del tiempo, con una precisión cien veces superior a la de los relojes de cesio de hoy en día", concluye el comunicado.

Experimentos revolucionarios con partículas cuánticas

Haroche nació en 1944 en Casablanca (Marruecos) y en la actualidad es catedrático de Física Cuántica en el Colegio de Francia y en la Escuela Normal Superior, ambos en París.

Por su parte, el estadounidense Wineland nació en 1944 y trabaja en el Instituto Nacional de Estándares y Tecnología (NIST) de Boulder (Colorado, EEUU).

Los ganadores de este premio, dotado con ocho millones de coronas suecas(cerca de 930.000 euros), un 20% menos que el año pasado, siguen en la nómina del Nobel de Física a los astrónomos estadounidenses Saul Perlmutter, Brian P. Schmidt y Adam G. Riess, que obtuvieron el premio en la última edición.



La Real Academia de Ciencias de Suecia les concedió este galardón en 2011 por sus estudios sobre el descubrimiento de la expansión acelerada del universo.

La presente edición de los Nobel arrancó este lunes con la concesión del premio de Medicina al británico John B. Gurdon y al nipón Shinya Yamanaka por sus investigaciones en el campo de las células madre, que han "revolucionado" la comprensión científica de cómo "se desarrollan las células y los organismos".

Mañana se dará a conocer el nombre de los ganadores del Nobel de Química; y el jueves y el viernes, el de quienes obtengan el de Literatura y de la Paz, respectivamente, para concluir el próximo lunes, con el anuncio del de Economía.

La entrega de los Nobel se realizará, de acuerdo a la tradición, en dos ceremonias paralelas el 10 de diciembre, en Oslo para el de la Paz y en Estocolmo los restantes, coincidiendo con el aniversario de la muerte de Alfred Nobel

19 de septiembre de 2012

Antimateria


Mucha de la gente que se inicia en la astronomia, generalmente se
encuentra con ésta palabra: 'antimateria', ¿pero que es realmente la antimateria? Voy a intentar explicarlo de forma sencilla para que no se necesiten elevados conocimientos físicos para entenderlo.
La materia normal como la conocemos, está compuesta de átomos, las distintas organizaciones de distintos átomos forman todos los tipos de moléculas y estos a su vez la materia. Estos átomos están compuestos por electrones, protones y neutrones, los elementos mas pequeños conocidos (sin tener en cuenta los quarks).La antimateria se compone del mismo modo, con algo llamado anti-átomos, que estan formados por antielectrones (o tambien llamados positrones), antiprotones y el extraño antineutron.Paul Adrien Maurice Dirac habia deducido, fundándose en un análisis matemático de las propiedades inherentes a las particulas subatomicas, que cada particula deberia tener su 'antiparticula'. Así pues, deberia haber un 'antielectron' identico al electron, salvo por su carga, que seria positiva, y no negativa, y un 'antiproton' con carga negativa en vez de positiva.

Pero... ¿Que es realmente la antimateria y en que se diferencian los electrones, protones y neutrones de los antielectrones, antiprotones y los ant
ineutrones?
La antimateria es materia constituida por la antiparticulas (antielectrones, antiprotones y antineutrones).
La diferencia los electrones y protones de los antielectrones y los antiprotones y los antineutrones es basicamente la carga electrica, son idénticas en aspecto físico y en constitución, sus movimientos rotatorios se han invertido, el polo sur magnetico, por decirlo asi, esta arriba y no abajo, de esta manera su carga eléctrica es la opuesta de lo que deveria de ser.
Como vimos hasta ahora, el positron es la contrapartida del electron por su carga contraria, y el antiproton es tambien 'anti' por su carga. Pero... ¿por que dice anti a una partícula que posee carga neutra? Para responder esta pregunta es necesario explicar brevemente las carateristicas de los positrones y los antiprotones.
El antielectron es tan estable como el electron, de hecho es identico a
l electron en todos sus aspectos, excepto en su carga electrica. Su existencia puede ser indefinida. Aunque el promedio de 'vida' es de una millonésima de segundo, hasta que se encuentra con un electron, durante un momento relampagueante quedaran asociados el electron y el positron; ambas partículas giraran en torno a un centro de fuerza comun. Pero la existencia de este sistema, como máximo, durará una diezmillonesima de segundo ya que se combinan el positron y el electron.
Cuando se combinan las dos particulas opuestas, se produce una neutralizacion mutua y literalmente desaparecen, no dejan ni rastro de materia ('aniquilamiento mutuo'). Pero como sabemos la materia al igual que la energia no puede desaparecer, como resultado de esto queda la energia en forma de radiacion gamma. De tal forma como habia sugerido el genio Albert Einstein: la materia puede convertirse en energia, y viceversa.
El antiprotón es tan evanescente como el positron, por lo menos en nuestro Universo. En una infima fraccion de segundo después de su creacion, la particula desaparece (al igual que el antielectron), arrastrada por algun nucleo normal cargado positivamente. Entonces se aniquilan entre si el antiproton y un proton del nucleo, que se transforman en energia y particulas menores.
En ocasiones, el proton y el antiproton solo se rozan ligeramente en vez de llegar al choque directo. Cuando ocurre esto, ambos neutralizan mutuamente sus respectivas cargas. El proton se convierte en neutron, lo cual es bastante logico. Pero no lo es tanto que el antiproton se transforme en un 'antineutron'.

Con algo de fisica elemental es facil comprender como forma un campo magnetico la particula cargada, pero ya no resulta tan facil saber por que hace lo mismo un neutron. Que por cierto ocurre. La prueba directa mas evidente de ello es que cuando un rayo de neutrones golpea sobre un hierro magnetizado, no se comporta de la misma forma que lo haria si el hierro no estuviese magnetizado. El magnetismo del neutron sigue siendo un misterio, los fisicos sospechan que contiene cargas positivas y negativas equivalentes a cero, aunque, por alguna razon desconocida, logran crear un campo magnetico cuando gira la partícula.
Sea como fuere, la rotacion del neutron nos da la respuesta a esta pregunta: ¿Que es el antineutrón? Pues, simplemente, un neutron cuyo movimiento rotatorio se ha invertido y al igual que el positron y el antiproton, muestra exactamente el mismo fenomeno de los polos invertidos.
Por lo pronto, la teoria es bastante solida, y ningun fisico lo pone en duda. La antimateria puede existir.


Pero.... ¿Existe en realidad? ¿Hay masas de antimateria en el Universo?

Si las hubiera, no revelarían su presencia a cierta distancia. Sus efectos gravitatorios y la luz que produjeran serian identicos a los de la materia corriente. Sin embargo, cuando se encontrasen con esta materia, deberían ser claramente perceptibles las reacciones masivas de aniquilamiento resultantes. Por esto, los astronomos se afanan en observar especulativamente las galaxias, para comprobar si hay alguna actividad inusitada que delate las interacciones materia-antimateria.
¿Es posible, que el Universo este formado casi enteramente por materia, con muy poca o ninguna antimateria?
Dado que la materia y la antimateria son equivalentes en todos los aspectos, excepto en su oposicion electromagnetica, cualquier fuerza que crease una originaria la otra, y el Universo deberia estar compuesto de iguales cantidades de una y otra.
Este es el dilema. La teoria nos dice que deberia haber antimateria, pero la observacion practica se niega a respaldar este hecho. ¿Y que ocurre con los nucleos de las galaxias activas? ¿Deberian ser esos fenomenos energeticos el resultado de una aniquilacion materia-antimateria? NO! Ni siquiera ese aniquilamiento es suficiente, la destruccion seria muchas veces mayor (para darse una idea de la magnitud lo mas parecido es el colapso gravitatorio de una supernova al explotar y el fenomeno resultante: el agujero negro, seria el unico mecanismo conocido para producir la energia requerida para tanta destruccion).

Un poco sobre física


Einstein se preguntaba a menudo si Dios tuvo alguna elección al crear el universo. Según los teóricos de supercuerdas, una vez que exigimos una unificación de la teoría cuántica y la relatividad general, Dios no tenía elección. La autoconsistencia por sí sola, afirman ellos, debe haber obligado a Dios a crear el universo como lo hizo.

Escuchar a E. Wittin hablar sobre Física, puede ser un viaje alucinante que nos lleve hacia el futuro que está por llegar. Él es el autor de la Teoría M de cuerdas en la que ha unificado todas las versiones de supersimetría, supergravedad, cuerda heterótica, supercuerdas y demás. Se avanza sin descanso pero, seguimos sin poder verificar de forma experimental. Se dice que esta teoría esta adelantada a su tiempo.
Aunque el perfeccionamiento matemático introducido por la teoría de cuerdas ha alcanzado alturas de vértigo y ha sorprendido a los matemáticos, los críticos de la teoría aún la señalan como su punto más débil. Cualquier teoría, afirman, debe ser verificable. Puesto que ninguna teoría definida a la energía de Planck de 1019 miles de millones de eV es verificable, ¡la teoría de supercuerdas no es realmente una teoría!
Con esa simple fçormula, Planck no dijo la energía que se necesitaba para verificar la teoría de cuerdad, es decir 1019 GeV, y, desgraciadamente, esa energía, de momento, no es de este mundo.
¡Es todo tan complejo! La topología nos dará algunas respuestas y, seguramente, las funcionaes modulares de Ramunujan también podría tener el derecho a voto en esto de la teoría de cuerdas.
El principal problema es teórico más que experimental. Si fuéramos suficientemente inteligentes, podríamos resolver exactamente la teoría y encontrar la verdadera solución no perturbativa de la teoría. Sin embargo, esto no nos excusa de encontrar algún medio por el que verificar experimentalmente la teoría; debemos esperar señales de la décima dimensión.
¿Es la belleza un principio físico?Ni en este monstruo de la Ingenieria y la técnica actual podríamos alcanzar las enertgía de Planck. Queda muy lejos de la posibilidad humana y, no sabemos si, alguna inteligencia extraterrestre la habrá podido conseguir. Estamos hablando de las fuerzas de la creación.
Aunque la teoría de supercuerdas nos da una formulación convincente de la teoría del universo (de todo lo que existe, incluyendo el espacio, el tiempo y la materia), el problema fundamental es que un test experimental de la teoría está más allá de nuestra tecnología actual. De hecho, la teoría predice que la unificación de todas las fuerzas ocurre a la energía de Planck, de 1019 miles de millones de electronvoltios (eV), que es alrededor de mil billones de veces mayor que las energías actualmente disponibles en nuestros aceleradores de partículas.
El físico David Gross (el del cuarteto de cuerdas de Princeton), al comentar el coste de generar esta energía fantástica, dice: “No hay suficiente dinero en las tesorerías de todos los países del mundo juntos. Es verdaderamente astronómica“.
Esto resulta decepcionante, porque significa que la verificación experimental, el motor que hace progresar la física, ya no es posible en esta generación actual de máquinas o con cualquier generación de máquinas en un futuro previsible. Esto significa, a su vez, que la teoría decadimensional no es una teoría en el sentido usual, porque es inverificable dado el actual estado tecnológico de nuestro planeta. Nos quedamos entonces con la pregunta: ¿Es la belleza, por sí misma, un principio físico que pueda sustituir la falta de verificación experimental?
El concepto de belleza es dispar, no todos aprecian la belleza de la misma manera, y, asimilar la belleza a un principio físico de la Naturaleza me parece banal, ya que, esa belleza, esté donde esté, es, también, Naturaleza.
Glasgow ha jurado (sin éxito) mantener estas teorías fuera de Harvard, donde él enseña. Pero admite que a menudo siente que es superado en su deseo y la teoría de supercuerdas se cuela por todas las rendijas de la universidad y, además, sus puntos de vista no son compartidos por otros Nobel como Murray Gell-Mann y Steven Weinberg que se decantan en el sentido de que la teoría de supercuerdas proporciona nuestra única fuente actual de candidatos para una teoría final con enormes señales reales de autenticidad. ¿Por qué sino de su interior surgen las ecuaciones de Einstein de la relatividad general y el número mágico 24 de Ramanujan y sus funciones modulares, que al ser generalizadas se convierten en 8 y a las que la relatividad añade 2, para finalmente exigir 10 dimensiones? Los físicos no creen en casualidades pero sí en causalidades; si algo ocurre es debido a lo que existió, al suceso anterior que dio lugar al suceso presente, y que dará lugar al suceso futuro.
El matemático indio más extraño que podía pasarse el día sin levantar la cabeza escribiendo teoremas que ni los mayores matemáticos del momento sabían descifrar. Sus funciones modulares encierran mensajes que están aún por ser descubiertos. ¿Qué nos dirán?
Fue una verdadera pena que los políticos de EEUU dieran al traste con el proyecto SSC (Supercolisionador Superconductor) por su enorme coste de más de 11 mil millones de dólares para construirlo en las afueras de Dallas, Texas, con una circunferencia de 85 Km y rodeado de enormes bobinas magnéticas donde los físicos habrían podido verificar de manera indirecta la teoría decadimensional, además de haber encontrado partículas exóticas tales como la misteriosa partícula de Higgs predicha por el Modelo Estándar. Es la partícula de Higgs la que genera la ruptura de simetría y es por lo tanto el origen de la masa de los quarks. Por consiguiente, la anulación de este proyecto del supercolisionador de partículas nos ha privado de encontrar el “origen de la masa”. Todos los objetos que tienen peso deben su masa a la partícula de Higgs. Incluso, había una posibilidad de que el SSC encontrara partículas exóticas más allá del Modelo Estándar, como “axiones”, que podrían haber ayudado a explicar la materia oscura. También el gravitón, la partícula mediadora en la gravedad, está pendiente de ser encontrada.
Bueno, es posible que aquella decepción sea compensada con el LHC que ahora trabajará a 8 TeV y, posiblemente, para el 2.013, habrá encontrado el Bosón de Higgs que cambiaría el Modelo Estándar de la Física de partículas y…otras cosas.
En aquellos momentos se podían leer comentarios como este:
“Puesto que el supercolisionador no se construirá nunca, y por lo tanto nunca detectará partículas que sean resonancias de baja energía o vibraciones de la supercuerda, otra posibilidad consiste en medir la energía de rayos cósmicos, que son partículas subatómicas altamente energéticas cuyo origen es aún desconocido, pero que debe estar en las profundidades del espacio exterior más allá de nuestra galaxia. Por ejemplo, aunque nadie sabe de dónde vienen, los rayos cósmicos tienen energías mucho mayores que cualquier cosa encontrada en nuestros laboratorios de pruebas.”
Los rayos cósmicos son impredecibles en cuanto a su energía aleatoria. Hace ya aproximadamente un siglo que fueron descubiertos por un padre jesuita de nombre Theodor Wolf en lo alto de la Torre Eiffel en París. Desde entonces, el conocimiento adquirido de estos rayos es bastante aceptable; se buscan y miden mediante el envio de contadores de radiación en cohetes e incluso en satélites a gran altura alrededor del planeta Tierra para minimizar agentes interceptores como los efectos atmosféricos que contaminan las señales. Cuando los rayos energéticos, altamente energéticos, inciden en la atmósfera, rompen los átomos que encuentran a su paso y los fragmentos que se forman caen a tierra donde son detectados por aparatos colocados al efecto en la superficie.


El detector de Utah, a unos 140 Km al suroeste de Salt Lake City, es lo suficientemente sensible como para detectar la procedencia, el origen de los rayos cósmicos más energéticos. Hasta el momento, Cygnus X-3 y Hércules X-1 han sido identificados como poderosos emisores de rayos cósmicos. Probablemente son grandes estrellas de neutrones, o incluso agujeros negros en rotación engullendo a sus estrellas vecinas que, inocentes, han osado traspasar el horizonte de sucesos. Cuando el material de la estrella traspasa ese punto de no regreso, crea un gran vórtice de energía y escupe cantidades gigantescas de radiación (por ejemplo, protones) al espacio exterior.
Muchas son las fuentes detectadas de rayos cósmicos a lo largo del Universo. Los rayos cósmicos son partículas que llegan desde el espacio y bombardean constantemente la Tierra desde todas direcciones. La mayoría de estas partículas son protones o núcleos de átomos. Algunas de ellas son más energéticas que cualquier otra partícula observada en la naturaleza. Los rayos cósmicos ultraenergéticos viajan a una velocidad cercana a la de la luz y tienen cientos de millones de veces más energía que las partículas producidas en el acelerador más potente construido por el ser humano.
Hasta la fecha, el rayo cósmico más energético detectado tenía una energía de 1020 electrón voltios. Esta cifra supone una increíble energía diez millones de veces mayor de la que se habría producido en el SSC o ahora el LHC. Dentro de este siglo, seguramente, será difícil alcanzar con nuestras máquinas, energías aproximadas. Aunque esta fantástica energía es todavía cien millones de veces menor que las energías necesarias para sondear la décima dimensión, se espera que energías producidas en el interior profundo de los agujeros negros en nuestra galaxia se acercaran a la energía de Planck. Con grandes naves espaciales en orbita deberíamos ser capaces (seremos) de sondear en lo más profundo de estas estructuras gigantescas de fuentes energéticas que, abundantemente, están repartidas a lo largo y ancho del universo.
Los rayos cósmicos están presentes por todo el Universo allí donde se producen sucesos de grandes energías, como radiogalaxias, explosiones supernovas, e incluso, en colisiones de estrellas de neutrones.
Según una teoría favorita, la mayor fuente de energía dentro de nuestra galaxia (mucho más allá de cualquier cosa imaginable), está en el mismo corazón de la Vía Láctea, en el centro, a 30.000 años luz de nuestro Sistema Solar, y puede constar de millones de agujeros negros.
En física nada se puede descartar, la inaccesibilidad de hoy a la energía de Planck se puede suplir por descubrimientos inesperados que, poco a poco, nos lleve cada vez más cerca de ella, hasta que finalmente tengamos el conocimiento y la tecnología necesarias para poder alcanzarla.
Sabemos exactamente de qué están compuestas las estrellas del cielo que, en las que por cierto, exista una gran variedad de elementos, no todas están hechas de la misma materia dependiendo a qué generación puedan pertenecer.
No olvidemos que en el siglo XIX, algunos científicos declararon que la composición de las estrellas estaría siempre fuera del alcance del experimento, y que la única manera que tendríamos de conocerlas sería la de mirar al cielo y verlas allí, inalcanzables como puntos de luz brillantes y lejanos en la oscuridad del vacío del cosmos. Sin embargo, podemos decir hoy, a comienzos del siglo XXI, año 2.008, que no sólo podemos saber la composición de las estrellas, sino también como nacen y mueren, las distancias que los separan de nosotros y un sin fin de datos más.
Particularmente creo que el ser humano es capaz de realizar todo aquello en lo que piensa dentro de unos límites racionales. Podremos, en un futuro no muy lejano, alargar de manera considerable la media de vida. Podremos colonizar otros planetas y explotar recurso mineros en las lunas de nuestro Sistema Solar; los turistas irán al planeta Marte o a las lunas Ganímedes o Europa. Los transportes de hoy serán reliquias del pasado y nos trasladaremos mediante sistemas de transportes más limpios, rápidos y exentos de colisiones. Tendremos computadoras de cifrado cuántico que harán más seguras las comunicaciones y el intercambio de datos será realmente el de la velocidad de c, así en todos los campos del saber humano.

La mente humana, conectada al Universo del que forma parte, evoluciona sin cesar y, llegado el momento, podría tener una gran cantidad de respuestas que, desde luego, necesitamos conocer para sobrevivir en este complejo y vasto Cosmos.
Estamos inmersos en un avance exponencial, imparable.
Otro ejemplo de una idea “inverificable” la tenemos en la existencia del átomo. En el siglo XIX, la hipótesis atómica se reveló como el paso decisivo en la comprensión de las leyes de la química y la termodinámica. Sin embargo, muchos físicos se negaban a creer que los átomos existieran realmente, los aceptaban como un concepto o herramienta matemática para operar en su trabajo que, por accidente, daba la descripción correcta del mundo. Hoy somos todavía incapaces de tomar imágenes directas del átomo debido al principio de incertidumbre de Heisemberg, aunque ahora existen métodos indirectos. En 1.905, Einstein proporcionó la evidencia más convincente, aunque indirecta, de la existencia de átomos cuando demostró que el movimiento browniano (es decir, el movimiento aleatorio de partículas de polvo suspendidas en un líquido) puede ser explicado como colisiones aleatorias entre las partículas y los átomos del líquido.
Albert Einstein, había demostrado la existencia de los átomos. Esto lo hizo gracias al siguiente problema: ¿por qué los granos de polen “saltan” en el agua?. Einstein llegó a la conclusión de que esto sólo podía ser posible si los átomos existían, y esto se comprobó por las exactísimas predicciones que se lograban con los cálculos de Einstein sobre este extraño movimiento: el movimiento Browniano.
Por analogía, podríamos esperar la confirmación experimental de la física de la décima dimensión utilizando métodos indirectos que aún ni se han inventado o descubierto. En lugar de fotografiar el objeto que deseamos, quizá nos conformaríamos, de momento, con fotografiar la “sombra” del mismo.

17 de septiembre de 2012

FÍSICA El LHC colisiona protones con iones pesados por primera vez

Colisiones entre protones e iones de plomo en el experimento ALICE del LHC. (Imagen: ALICE/CERN)

El 13 de septiembre, el Gran Colisionador de Hadrones (LHC) del CERN ensayó las colisiones de protones con iones de plomo por primera vez. El cambio a colisionar diferentes tipos de partículas (protones contra núcleos, compuestos también de neutrones) en lugar de hacerlo entre partículas iguales (protón-protón) presenta importantes retos técnicos.

El tipo de colisiones probado esta semana, que se producirán realmente de enero a febrero de 2013 -antes del 'apagón' del LHC para su mantenimiento-, profundiza en el estudio de la materia en condiciones extremas a muy alta energía, recreando condiciones que se produjeron instantes después del Big Bang.

El físico de aceleradores y jefe del equipo de iones de plomo del CERN, John Jowett, destaca las dificultades técnicas: “En primer lugar, las colisiones son asimétricas en energía, lo cual supone un reto para los experimentos. A nivel del acelerador realmente no vemos la diferencia de tamaño de las partículas, pero la diferencia en el tamaño del haz, y el hecho de que el tamaño cambia a diferentes velocidades, puede afectar a cómo se comportan las partículas en las colisiones”.

Ademas existen otros retos. El LHC acelera habitualmente dos haces de protones en direcciones opuestas (de 0,45 teraelectronvoltios a 4 TeV) antes de hacerlas colisionar a una energía total de 8 TeV. Las cavidades de radiofrecuencia (RF, por sus siglas en inglés), componentes del acelerador que contienen campos electromagnéticos que impulsan las partículas, proporcionan la energía y mantienen los dos haces en estricta sincronía, haciéndolos retroceder cuando es necesario.

El problema surge porque los anillos independientes por los que circulan los dos haces están contenidos dentro de un solo imán, un sistema que vincula el momento de un haz con el del otro. Pero las partículas tienenvelocidades distintas: un núcleo de plomo, que contiene 82 protones, es acelerado desde 36,9 a 328 TeV, mientras que un protón lo hace de 0,18 a 1,58 TeV.

Para compensar estas diferencias de velocidad entre los protones e iones de plomo es necesario sintonizar las cavidades de radiofrecuencia a diferentes frecuencias para cada haz. “Los sistemas de RF de los dos anillos pueden sincronizarse sólo a la máxima energía antes de las colisiones, cuando la pequeña diferencia de velocidad entre ambos tipos de partículas puede ser absorbida por pequeños cambios en las órbitas”, explica Jowett.


Según Carlos Salgado, físico teórico de la Universidad de Santiago de Compostela (España) en el CERN, este juego de sincronización de las velocidades y curvaturas de los haces “es el sistema más complicado de conseguir en el LHC”. En el colisionador RHIC del Laboratorio Nacional de Brookhaven (EEUU), se producen también colisiones entre iones pesados (en este caso núcleos de oro), pero son más fáciles de producir puesto que los imanes son independientes, por lo que se pueden sincronizar mejor las velocidades y curvaturas de los haces.

Anteriormente se habían colisionado protones contra núcleos fijos, no en movimiento. “Y es la primera vez que se producen colisiones entre protones y núcleos pesados”, subraya el investigador, que destaca dos utilidades: "En primer lugar, sirve para calibrar las mediciones realizadas en las colisiones entre iones pesados ya experimentadas por el LHC en periodos de 2010 y 2011. Este tipo de colisiones trata de reproducir el llamado 'plasma de quarks y gluones', la ‘sopa’ primordial de la materia que debió existir instantes después del Big Bang y para lo cual se producen temperaturas extremas, 100.000 veces mayores que el interior del Sol".

Por otra parte, “este tipo de colisiones sirve para estudiar el comportamiento de la materia a muy altas energías”, como las que sólo es capaz de producir el acelerador del CERN. Este particular estado de la materia tiene unas características predichas por la teoría, pero nunca antes observadas.

También por primera vez, el experimento LHCb se ha sumado a ATLAS, CMS y ALICE, experimentos que estudian las colisiones entre iones pesados, en la toma de datos. Para Salgado, las características de este experimento, diseñado para estudiar las diferencias entre materia y antimateria, lo convierten en un instrumento interesante para analizar este nuevo tipo de colisiones logrado por el LHC.

La participación española en los cuatro principales experimentos del LHC es coordinada y promovidad por el Centro Nacional de Física de Partículas, Astropartículas y Nuclear (CPAN), proyecto Consolider-Ingenio 2010. (Fuente: CPAN)

Viajes superlumínicos mediante warp drive (impulso por deformación)


Nada que se mueva en el tejido del espacio-tiempo puede superar la velocidad de la luz. Sin embargo, el propio tejido no esta sometido a esta restricción (o al menos eso sugiere la teoría de la inflación cósmica para resolver el problema del horizonte).

La materia provoca deformación en el espacio-tiempo. Lo que propone M. Alcubierre en su artículo “The Warp Drive: Hyper-fast Transluminic within General Relativity”, es crear una distorsión local del espacio-tiempo de manera que produzca una expansión detrás de la nave espacial, y una contracción opuesta por delante de ella. De esta manera, es el propio espacio-tiempo el que empuja lejos de la Tierra a la nave y la atrae hacia la estrella distante a la que se pretende viajar.

En el formalismo , que permite una clara interpretación de los resultados, la métrica se escribe.





Una manera de conseguir lo pretendido es hacer:



con

y

y



con y arbitrarios.

La siguiente imagen del artículo original de Alcubierre muestra como deberia deformarse el espacio-tiempo para conseguir el impulso por deformación (corresponde a los valores y en la métrica):

                                        

El Prof. Dr. Daniel Weiskopf que trabaja, entre otras cosas, en Special and general relativistic visualization, ya editó en el año 2000 un pequeño video en el que simula, mediante técnicas de Ray tracing, como veriamos diferentes cuerpos del Sistema Solar si por el espacio-tiempo que hay entre ellos y nosotros pasara una nave viajando dentro de una burbuja warp a diferentes velocidades, sub y superlumínicas, cercanas a la de la luz:

FICCIÓN O REALIDAD - IMPULSO WARP

Wormhole travel as envisioned by Les Bossinas for NASA.jpg
El empuje warp (empuje por curvatura; también conocido como "impulso de deformación" o "de distorsión") es una forma teórica de propulsión superlumínica. Este empuje permite propulsar una nave espacial a una velocidad equivalente a varios múltiplos de la velocidad de la luz, mientras se evitan los problemas asociados con la dilatación relativista del tiempo. Este tipo de propulsión se basa en curvar o distorsionar el espacio-tiempo, de tal manera que permita a la nave "acercarse" al punto de destino. El empuje por curvatura no permite, ni es capaz de generar, un viaje instantáneo entre dos puntos a una velocidad infinita, tal y como ha sido sugerido en algunas obras de ciencia ficción, en las que se emplean tecnologías imaginarias como el "hipermotor" o "motores de salto". Una diferencia entre la propulsión a curvatura y el uso del Hiperespacio es que en la propulsión a curvatura, la nave no entra en un universo (o dimensión) diferente: simplemente se crea alrededor de la nave una pequeña "burbuja" (burbuja "Warp") en elespacio-tiempo, y se generan distorsiones del espacio-tiempo para que la burbuja se "aleje" del punto de origen y se "aproxime" a su destino. Las distorsiones generadas serían de expansión detrás de la burbuja (alejándola del origen) y de contracción delante de la burbuja (acercándola al destino). La burbuja Warp se situaría en una de las distorsiones del espacio-tiempo, sobre la cual "cabalgaría" de forma análoga a como los surfistas lo hacen sobre una ola de mar.

El empleo de la curvatura espacial como medio de trasporte es un concepto que ha sido objeto de tratamiento teórico por algunos físicos (como Miguel Alcubierre con su métrica de Alcubierre, y Chris Van Den Broeck).

El empuje warp o warp drive es famoso por ser el método de desplazamiento empleado en el universo ficticio de Star Trek.

Viabilidad de la propulsión por curvatura

Entre los diferentes físicos teóricos que han analizado esta propulsión, no existe un diseño, o teoría común que permita definir una teoría sólida para viajar mediante curvatura del espacio-tiempo. El más conocido de estos diseños es el del Motor de Alcubierre (Impulso de deformación de Alcubierre. "The Warp drive: Hyper-fast travel within general relativity" publicado en el año 1994) y que asume uno de los términos empleados en la jerga de Star Trek: El Factor de Curvatura como medida de la curvatura (deformación) del espacio-tiempo y que permite el viaje (más rápido que la luz) de un objeto gracias a la curvatura generada del espacio-tiempo. Si el Espacio-tiempo se curva de forma apropiada, estrictamente hablando, el objeto o la nave no se mueve a velocidades lumínicas, de hecho se encuentra estacionaria en el espacio interior de la burbuja Warp. Esta situación estacionaria de la nave, dentro de la burbuja, haría que la tripulación no se viera afectada por grandes aceleraciones / desaceleraciones ni existiría un transcurrir del tiempo "diferente", es decir, no sufriría el efecto de la dilatación temporal, como en el caso de desplazarse a velocidades próximas a las de la luz en el espacio-tiempo. La nave, al activarse su propulsión por curvatura, para un observador exterior parecería que se mueve más rápido que la luz y desaparecería de su campo de visión en un breve lapso de tiempo al expandirse el espacio-tiempo de la nave con respecto a ese observador.

Miguel Alcubierre hace referencia a la necesidad de la materia extraña (también denominada materia exótica) para el empuje warp. La existencia de materia exótica no es teórica y el efecto Casimir lleva a suponer la existencia de dicha materia. Sin embargo, la generación de materia exótica, y su sostenimiento, para el desarrollo de un empuje de curvatura (o para mantener abierta la "garganta" de un agujero de gusano) es impracticable. Algunos métodos o teorías asociados con la creación/sostenimiento de la materia exótica apuntan a que la materia exótica debería moverse, localmente a una velocidad superior a la de la luz (y a la existencia de los denominados taquiones). Otras teorías, apuntan que se puede evitar este movimiento a una velocidad superior a la de la luz pero implicaría la generación de una singularidad desnuda al frente de la burbuja Warp. Sea por un método u otro, la creación /sostenimiento de materia exótica, en particular y el uso de empujes de curvatura violan, a priori, diferentes condiciones de energía en el ámbito de la teoría del campo cuántico. Alcubierre, concluyó que la generación de una burbuja Warp era inviable ya que, según sus cálculos iniciales, necesitaría para su creación (y las distorsiones del espacio-tiempo) más energía que la existente en el universo.

Un análisis posterior del doctor Van Den Broeck ("On the (im)possibility of warp bubles" publicado en 1999), de la Universidad Católica de Leuven (Bélgica) ofreció como resultado una energía inferior a la calculada inicialmente por Alcubierre (reducida por un factor de 10 elevado a 61). Sin embargo, esto no indica que la propuesta sea realista, tal y como indicó Van Den Broeck, ya que calculó la energía necesaria para transportar varios átomos a poco menos que el equivalente a la de tres masas solares.

No obstante, un estudio de 2008 a cargo de Richard K. Obousy y Gerald Cleaver, de la universidad de Baylor (Texas), en la que se estudian los efectos de un espacio-tiempo de varias dimensiones (como predice la teoría de cuerdas), rebaja la energía necesaria para mover una nave de 1000m3 a velocidades superlumínicas a "sólo" 1045 J; el equivalente a la energía contenida en la masa de Júpiter.

En este mismo estudio, se estima una velocidad máxima teórica para un motor warp de 1032c, si bien se trataría de un límite inútil desde el punto de vista práctico, pues para alcanzar esa velocidad arbitrariamente alta se necesitaría más energía de la disponible en el universo.

A principios del siglo XXI, la construcción de un motor de curvatura está lejos de convertirse en una realidad, debido tanto a la tecnología existente como a la elevada energía necesaria para su desarrollo. Parecen existir además otros impedimentos teóricos a un viaje superlumínico con esta tecnología, como la inestabilidad cuántica de la burbuja o laradiación de Hawking. No obstante, no existen argumentos sólidos que parezcan impedir viajes WARP sublumínicos.


El motor Warp en Star Trek
Evolución de motores Warp

En la historia de Star Trek se reconoce que el motor de curvatura fue inventado, en la Tierra, por Zefram Cochrane. La película Star Trek: Primer Contacto muestra como, en el año 2063, Cochrane realiza el primer viaje de curvatura de la especie humana, usando un antiguo misil nuclear intercontinental, modificado para viajar en el espacio y, una vez ahí, generar una burbuja Warp. Cochrane, para crear la burbuja Warp alrededor de la nave -y distorsionar el Espacio-tiempo para su desplazamiento- precisó de una inmensa cantidad de energía (que obtuvo gracias a la reacción entre matería-antimateria). Este primer viaje supuso un hito, permitió alcanzar un factor de curvatura de 1,0 y condujo directamente al primer contacto con una raza extraterreste: los vulcanos.

En la protosecuela Star Trek: Enterprise se establece que otras civilizaciones disponían del motor de curvatura antes que los humanos, como los vulcanos, siendo estos los que disponían de la tecnología de propulsión a curvatura más avanzada del Siglo XXI. En esta serie se muestran los viajes de la primera nave terrestre capaz de obtener un factor de curvatura de 5,1 lo que aplicando la "fórmula de curvatura", equivale a unos 39.767.468'5 Kilómetros por segundo, alcanzando la estrella más próxima a la Tierra (Proxima Centauri - 4'25 años luz) en aproximadamente 11'69 días. En la serie clásica (mitad del siglo XXIII) las naves son capaces de obtener un Factor de Curvatura de 8 (distancia Tierra - Proxima Centauri en 3'029 días).

Es necesario destacar que las velocidades equivalentes de los factores de curvatura no han sido proporcionados en ningún episodio o película de Star Trek. Los valores indicados en este artículo se han encontrado (o extrapolado) en manuales técnicos u otros medios electrónicos cuya propiedad está vinculada a los poseedores de los derechos de Star Trek.


"Transwarp"

Este termino ha sido empleado refiriéndose a la forma avanzada de propulsión que excede los límites de los motores de curvatura tradicionales. Por lo general, este sistema "Transwarp" es comúnmente utilizado por los borg aunque, la Flota estelar también realizó algún que otro experimiento en esa línea, tal y como se observa en Star Trek III: En busca de Spock. Algunos episodios de "Voyager" y "The Next Generation" parecen indicar que el sistema "Transwarp" empleado por los Borg se describe mejor como un conducto (del tipo agujero de gusano) a través del subespacio ( es una característica del Espacio-tiempo el cual facilita el tránsito superluminal, en la forma de viaje interestelar o de transmisión de información), en el cual se introduce la nave trasladandose, por su interior, al punto de destino.

Los borg utilizan los conductos "Transwarp" para moverse rápidamente a través de la galaxia. Estos, descubrieron la existencia de conductos "Transwarp" y configuraron redes de conductos entre sectores importantes de la galaxia para facilitar su movimiento en ésta (episodio de la serie Voyager "Endgame"). Estos conductos "Transwarp", utilizados por los borg, son activados mediante un pulso de taquiones (partículas que se desplazan a velocidades superlumínicas y permiten viajar, de forma equivalente, a veinte veces los factores warp de los motores de curvatura tradicionales. Además, los Borg utilizan bobinas "Transwarp" para generar conductos "Transwarp" temporales.

Velocidad de curvatura. Factor de curvatura

La unidad empleada con la velocidad de curvatura es el factor de curvatura ("warp factor"). La equivalencia entre factores de curvatura obtenidos por los reactores warp y velocidades medidas en múltiplos de la velocidad de la luz es en cierto modo ambigua.

Según la guía para escritores de episodios de Star Trek de la Serie Original, los factores warp se obtienen mediante la aplicación de la siguiente fórmula cúbica:


donde w es el factor warp,
 
es la velocidad medida en el espacio normal y c es la velocidad de la luz. Según esta fórmula, "warp 1" es equivalente a la velocidad de la luz, "warp 2" equivale a 8 veces la velocidad de la luz, "warp 3" equivale a 27 veces la velocidad de la luz, etc.



Tabla de equivalencias Factor curvatura y velocidad de la luz .
Fact. CurvaturaVelocidad equivalente (múltiplos de c)Tiempo necesario para recorrer 1 pársec (en días)
1,0001,0001.189,90
2,0008,000148,74
3,00027,00044,07
4,00064,00018,59
5,000125,0009,52
6,000216,0005,51
7,000343,0003,47
8,000512,0002,32
9,000729,0001,63
9,500857,3751,39
9,975992,5191,20



Sin embargo, esta escala entra en conflicto con el uso que se ha dado habitualmente, ya que la velocidad que se alcanza sería insuficiente para permitir los viajes que aparecen en las series de televisión. Algunos episodios de la serie original situaban a la nave Enterprise en peligro si viajaba a factores de warp elevados (en el episodio "That Witch survives" este factor se situaba en 14,1).

Para Star Trek: La Nueva Generación y las subsiguientes series, el guionista de Star Trek Michael Okuda preparó una nueva fórmula basada en la original, pero con una diferencia importante.

Para factores warp comprendidos entre 1 y 9, se aplicó un factor warp ligeramente más rápido que el de la serie original, pero la velocidad seguía variando según una potencia fija del factor:

                                                                     

Pero en el intervalo semiabierto comprendido entre warp 9 y warp 10, se hizo que el exponente que afecta a w incrementara de forma no convergente y, al aproximarnos a warp 10 de manera asintótica, el exponente se hace infinito. Por ello, según la escala Okuda, también tienden a infinito las velocidades que se obtienen al aproximarnos a warp 10.
Nueva escala warp de Michael Okuda.


La Nueva Escala situa el factor de curvatura 10 como un máximo inalcanzable (identificado como el "Límite de Eugene" en la página del creador / productor de la serie, Gene Roddenberry). El factor de curvatura 10 es una asíntota que representa, inicialmente, velocidad infinita. En el episodio de Star Trek: Voyager titulado "Momento crítico" ("Threshold") uno de los personajes logra alcanzar el factor de curvatura 10, pero con la consecuencia de sufrir una hiper-evolución genética.

En las distintas series, sólo hay un episodio en el que se de una equivalencia concreta. Se trata del episodio número 37 de la serie Voyager donde el navegante Tom Paris describe la velocidad del Voyager al alcanzar el factor 9,9 como de 4 mil millones de millas por segundo, lo que sería equivalente amás de 21.000 veces la velocidad de la luz.

Como referencia acerca de los factores de curvatura sostenidos (de crucero), hay que indicar que, a mediados del siglo XXIV, la nave Enterprise-D viaja a un factor de curvatura de 9,2 y la nave de clase "Intrepid" Voyager puede sostener un factor de 9,975.

Núcleo de Curvatura ("Warp core")

La principal forma de propulsión en el universo Star Trek es el "desplazamiento del campo gravimétrico", más comúnmente definido como Núcleo de Curvatura. El Núcleo de Curvatura es un ficticio sistema de energía basado en la reacción materia-antimateria que proporciona la energía suficiente como para generar la distorsión del Espacio-tiempo. La reacción entre materia-antimateria está controlada mediante los denominados "cristales de dilitio" (cristales supuestamente que no presentan reacción alguna cuando son bombardeados con elevados niveles de radiación). La cámara de la reacción está rodeada de un campo magnético que permite contener la antimateria y evitar las reacciones con la materia de la nave. La energía liberada durante la reacción es empleada para crear el campo de curvatura que se denomina "burbuja Warp". Este campo distorsiona el espacio alrededor de la nave y la acelera mientras el espacio dentro de la burbuja, técnicamente, no se desplaza, por lo que la nave no experimenta ninguna dilatación temporal. El tiempo transcurre dentro de la burbuja, al mismo ratio que en el punto de origen o de destino.