14 de marzo de 2013

El CERN confirma el descubrimiento del bosón de Higgs



Peter Higgs, en el túnel del acelerador de partículas del CERN en Ginebra. | CERN

Peter Higgs, en el túnel del acelerador de partículas del CERN en Ginebra. | CERN

Como ya adelantó a SINC el director del CERN, Rolf Heuer, el bosón que descubrieron el año pasado es un higgs. Así lo señalan los últimos resultados presentados hoy en la conferencia Moriond (Italia) por los científicos de los experimentos ATLAS y CMS del gran colisionador de hadrones.

Las colaboraciones ATLAS y CMS del Gran Colisionador de Hadrones (LHC) han presentado hoy en la conferencia Moriond (La Thuile, Italia) los últimos datos sobre la partícula descubierta en el CERN el año pasado.

Una vez analizados dos veces y media más datos que los disponibles durante el anuncio de su descubrimiento en julio de 2012, los resultados indican que la partícula es un bosón de Higgs, la partícula asociada al mecanismo que da masa al resto.

Sigue siendo una pregunta abierta, sin embargo, si este es el higss del modelo estándar de la física de partículas o, posiblemente, el más ligero de los bosones de los varios previstos en otras teorías que van más allá de ese modelo.

Encontrar la respuesta a esta pregunta llevará tiempo, como explicó a SINC, Rolf Heuer, durante su visita a la Universidad de Oviedo hace un par de semanas.

Si es o no un bosón de Higgs se demuestra por la forma en que interactúa con otras partículas, y sus propiedades cuánticas. Por ejemplo, un bosón de Higgs no tiene espín o momento de rotación intrínseco, y en el modelo estándar su paridad –una medida de cómo se comporta su imagen especular– debe ser positiva.

CMS y ATLAS han analizado diversas opciones para paridad-espín de esta partícula, y, efectivamente, reflejan un valor 0 para el espín y paridad positiva. Esto, junto con las interacciones que se han medido de la nueva partícula con otras, indica “con fuerza” que es un bosón Higgs.

Los últimos datos del CERN indican que la nueva partícula es un bosón de Higgs Registro de un bosón de Higgs. / CERN-CMS

"Se cumple la predicción de espín 0 y paridad positiva, como un higgs"




"Los resultados preliminares con el conjunto de datos completo de 2012 son magníficas y para mí está claro que se trata de un bosón de Higgs, aunque todavía nos queda un largo camino por delante para saber de qué tipo es", dice el portavoz de CMS, Joe Incandela.

"Los nuevos y ‘hermosos’ resultados representan un esfuerzo enorme aportado por muchas personas. Apuntan a que la nueva partícula tiene una paridad-espín de un bosón de Higgs como el del modelo estándar. Empezamos bien el programa de medición en el sector de Higgs", señala el portavoz de ATLAS, Dave Charlton.

Para determinar si este es o no el higgs del modelo estándar, las colaboraciones tienen, por ejemplo, que medir con precisión la tasa con la que el bosón se desintegra en otras partículas y comparar los resultados con las predicciones.

La detección del bosón es un evento muy raro, ya que se requiere alrededor de 1 billón (1012) de colisiones protón-protón por cada evento observado. Para caracterizar todas las formas de desintegración se necesitará tiempo y se necesitarán muchos más datos del LHC.



Fuente: CERN

13 de marzo de 2013

ANÁLISIS DE ROCA RECOGIDOS POR CURIOSITY - La NASA concluye que Marte pudo albergar microbios


Foto: NASA

La NASA ha anunciado este martes que Marte tuvo condiciones adecuadas para la vida, según los primeros análisis realizados a la muestra de rocarecogida por el rover Curiosity. Según ha señalado el científico jefe del programa de exploración, Michael Meyer, el planeta rojo "pudo albergar microbios vivos".

Concretamente, los científicos han identificado azufre, nitrógeno, hidrógeno, oxígeno, fósforo y carbono --algunos de ellos esenciales para la vida-- en las muestras de la roca taladrada por Curiosity en la superficie marciana. Los expertos han indicado que la roca perforada fue elegida porque estaba junto a un antiguo lecho de un arroyo.

"Una cuestión fundamental de la misión del rover era conseguir información acerca de si Marte habría tenido, en un pasado, un ambiente habitable. Ahora sabemos que la respuesta es sí", ha señalado Meyer, durante la rueda de prensa ofrecida por todo el equipo de la misión.

Las claves para este entorno habitable provienen de los datos devueltos por el análisis de muestras del Curiosity (el instrumento SAM) y los instrumentos de Química y Mineralogía (CheMin). Los datos indican que el área de la bahía de Yellowknife, que está explorando el vehículo de la NASA, fue un río o un lago intermitente que podría haber proporcionado la energía química y otras condiciones favorables para los microbios.

La roca se compone de grano fino que contiene minerales de arcilla, minerales de sulfato y otros productos químicos. Este ambiente húmedo, a diferencia de algunos otros en Marte, no es extremadamente ácido o salado. En este sentido, el investigador principal del instrumento CheMin, David Blake, ha indicado que "los minerales de arcilla constituyen al menos el 20 por ciento de la composición de la muestra analizada".

Estos minerales de arcilla son un producto de la reacción de agua relativamente dulce con minerales ígneos, también presentes en el sedimento. La reacción podría haber tenido lugar dentro del depósito sedimentario, durante el transporte de los sedimentos, o en la región de origen de los sedimentos. La presencia de sulfato de calcio junto con la arcilla sugiere que el suelo es neutro o ligeramente alcalino.

Los científicos se han sorprendido al encontrar esta sustancias químicas que proporcionan a la superficie de Marte la energía suficiente para que muchos microbios que existen en la Tierra puedan vivir.

"La gama de ingredientes químicos que se ha identificado en la muestra es impresionante, y sugiere maridajes tales como sulfatos y sulfuros que indican una fuente de energía química posible para micro-organismos", ha apuntado el investigador principal de SAM, Paul Mahaffy.

Ante estos resultados, los científicos planean trabajar con Curiosity en la Bahía Yellowknife antes de que el rover continúe con su calendario establecido y se desplace, en un largo viaje, hasta el montículo central del cráter Gale, el Monte Sharp.




Fuentes : EFE

OBSERVACIONES DEL SDO - La NASA capta dos tránsitos lunares en un mismo día

La NASA capta dos tránsitos lunares en un mismo día
Foto: SDO/NASA

La NASA ha captado dos tránsitos lunares en el mismo día, el pasado 11 de marzo. Según ha informado la agencia espacial estadounidense el satélite bloqueó el Sol en dos ocasiones, protagonizando sendos eclipses parciales.

El 2 de marzo el Observatorio de Dinámica Solar (SDO) de la NASA entró en su temporada de eclipses semestral, un período de tres semanas, cuando la Tierra bloquea la vista del sol durante un período de tiempo cada día.

Según ha explicado la NASA, cuando la Tierra bloquea el Sol, los límites de la sombra de la Tierra aparecen poco claros y el SDO puede ver luz del astro que atraviesa la atmósfera de la Tierra. La línea del planeta aparece casi en línea recta y la Tierra --desde el punto de vista de SDO-- es tan grande como el Sol.

Mientras, el eclipse causado por la Luna se ve muy diferente. Los expertos han señalado que, dado que la Luna no tiene atmósfera, su forma curvada se puede ver claramente, y la línea de su sombra es limpia.




Cualquier nave espacial observando el Sol desde una órbita alrededor de la Tierra tiene que lidiar con tales eclipses, pero la órbita del SDO está diseñada para coincidir con sólo dos estaciones de eclipses de tres semanas cada año. La temporada de primavera continuará hasta el 26 de marzo 26. SDO también se ocupa de la de otoño, que comienza el próximo 2 de septiembre.



Fuentes : EUROPA PRESS

Frío extremo y químicos de origen humano ensanchan el agujero ártico de ozono

Agujero de ozono en el Ártico
Foto: NASA

El frío extremo y los productos químicos fabricados por el hombre, así como una atmósfera estancada, son los principales causantes del ensanchamiento del agujero de ozono del Ártico, que fue especialmente grave en el año 2011, según pone de manifiesto un nuevo estudio de la NASA.

En concreto, el texto explica que, aunque "las reacciones químicas de cloro en la estratosfera del Ártico fueron las culpables últimas de la pérdida de ozono severo en invierno de 2011", las temperaturas "inusualmente frías" y "persistentes" fueron claves a la hora "impulsar esta destrucción".

Asimismo, añade que las condiciones atmosféricas poco comunes detuvieron el reabastecimiento de ozono estacional hasta abril. En concreto, hace referencia a los vórtices, que son "flujos turbulentos en rotación espiral con trayectorias de corriente", que se formaron en los trópicos e impidieron este proceso.

Este informe, publicado recientemente en el 'Journal of Geophysical Research-Atmospheres', recuerda que "ambos polos del planeta sufren pérdidas de ozono durante el invierno", sin embargo, a diferencia de lo ocurrido en 2011, "el agotamiento de la capa de ozono del Ártico tiende a ser más leve y de menor duración que la de la Antártida".

La científica atmosférica de la NASA Susan E. Strahan ha afirmado que "2011 fue un año muy atípico" y, aunque los niveles de ozono sobre el Ártico "eran posiblemente los más bajos jamás registrados", el frío hizo que se impacto fuese mayor. "En más de treinta años de registros de los satélites no habíamos visto ningún periodo en el que el frío intenso durase tanto tiempo", ha apostillado.

Para determinar si la mezcla de productos químicos artificiales y el frío extremo o las condiciones atmosféricas excepcionalmente estancadas fueron los principales responsables de los bajos niveles de ozono observados en 2011, Strahan y sus colaboradores utilizaron un modelo de la química atmosférica y el transporte denominado Iniciativa Global Modeling (GMI, por sus siglas en inglés).

Un modelo que la científica atmosférica quiere utilizar ahora para estudiar el comportamiento de la capa de ozono en los polos durante las últimas tres décadas.

Por último, Strahan ha añadido que, a raíz de sus estudios, "no cree que sea probable que haya grandes pérdidas de ozono en el Ártico en el futuro, al menos de forma frecuente".

"Los niveles de cloro están disminuyendo en la atmósfera, ya que hemos dejado de producir una gran cantidad de clorofluorocarburos (CFC) como resultado del 'Protocolo de Montreal'. Si dentro de treinta años se repitiesen las mismas condiciones meteorológicas, el agotamiento del ozono probablemente no sería tan grave", ha concluido.


Fuentes : EUROPA PRESS

EMISIONES DE TV YA LO HAN ALCANZADO - Descubren el sistema más cercano al Sol localizado en cien años

NASA estrellas
Foto: NASA

El telescopio Wide-field Infrared Survey Explorer (WISE) de la NASA ha descubierto el sistema estelar más cercano al Sol desde 1916. Se trata de un par de 'enanas marrones', que se han convertido en el tercero más cercano al Sol, según ha precisado la NASA.

Este sistema binario está compuesto por una pareja de estrellas que son "demasiado pequeñas como para encender la fusión del hidrógeno" y, por lo tanto, tienen un tono "fresco" y "oscuro", más parecido a un planeta gigante como Júpiter que una estrella brillante como el sol.

El profesor asociado de astronomía y astrofísica en la Universidad Estatal de Pennsylvania (EEUU), Kevin Luhman, ha explicado que "la distancia hasta estas estrellas es de 6,5 años luz del sol, "tan cerca de la Tierra que las transmisiones de televisión a partir de 2006 están llegando ahora allí".

"Va a ser un excelente coto de caza de planetas porque el sistema está muy cerca de la Tierra, lo que hace que sea mucho más fácil ver los planetas que orbitan una de las enanas marrones", ha apostillado Luhman.

El nuevo sistema estelar, que se llama 'WISE J104915.57-531906', está "sólo un poco más lejos que la segunda estrella más cercana --la estrella de Barnard--, que fue descubierto a una distancia de 6 años luz del Sol, en 1916. El sistema estelar más cercano está formado por diversas estrellas ubicadas entre los 4,2 y 4,2 años luz del Sol, que fueron descubiertas en 1839.



Fuentes : EUROPA PRESS

Un 5 por ciento de la Luna estuvo cubierta de mares de roca fundida



Foto: NASA

Un nuevo análisis de datos del Lunar Orbiter Laser Altimeter (LOLA) de la NASA, muestra que la roca fundida puede haber estado presente en la Luna "más recientemente" y "por periodos más largos" de lo que se pensaba previamente.

Esta investigación, en la que han participado los científicos planetarios de la Universidad Brown y que se publica en la edición de abril de la revista 'Icarus', señala que el impacto que formó la 'Cuenca Oriental' del borde occidental de la Luna y la cara oculta produjo un mar de roca fundida de 350 kilómetros de tamaño y, por lo menos, nueve kilómetros y medio de profundidad.

"Mares similares producidos por impactos estuvieron presentes probablemente en varias épocas en por lo menos otras treinta grandes cuencas producidas por impactos en la Luna", que "produjeron cien millones de kilómetros cúbicos de fusión, lo suficiente para cubrir un 5 por ciento de la corteza", según añade la investigación.

De esta forma, el nuevo análisis pretende desmotar la teoría de que "a medida que el océano de magma lunar se enfrió a lo largo de millones de años, se diferenció para formar la corteza y el manto de la Luna". Sin embargo, el nuevo informe de los científicos planetarios de la Universidad Brown afirma que "ésta no fue la última vez que la superficie de la Luna estuvo fundida a gran escala".

El geólogo planetario James W. Head ha explicado que esta nueva teoría ayudaría a entender "algunos hallazgos desconcertantes de las muestras lunares". "Por ejemplo, el análisis que se realizó en 2011 sobre una muestra que se originó supuestamente en la corteza lunar temprana sugirió que tenía en realidad 200 millones de años menos del tiempo estimado en que el océano de magma lunar se solidificó", ha apostillado.

En este sentido, advierte de que ésto podría ocurrir incluso con rocas traídas durante el programa Apolo y las misiones de Rusia a la Luna. "Es muy posible que el material fundido que impactó con la luna esté presente en las muestras que se consideran representativos de la formación temprana de la corteza lunar", ha sentenciado.






Fuentes :EUROPA PRESS

En diez años luz pueden encontrarse al menos 3 planetas como la Tierra


Exoplanetas
Foto: CHESTER HARMAN    
El número de planetas potencialmente habitables es mayor de lo que se pensaba, según un nuevo análisis realizado por un investigador de la Universidad Penn State, y algunos de esos planetas están probablemente al acecho alrededor de estrellas cercanas.

"Nosotros estimamos que si fuéramos a buscar a las 10 estrellas pequeñas más cercanas encontraríamos unos cuatro planetas potencialmente habitables, más o menos", dijo Ravi Kopparapu, un investigador

post-doctoral en Ciencias de la Tierra. "Esa es una estimación conservadora", agregó. "Podría haber más". Kopparapu detalla sus hallazgos en un artículo aceptado para su publicación en Astrophysical Journal Letters. En el mismo, volvió a calcular el carácter común de planetas del tamaño de planetas en las zonas habitables de estrellas de baja masa, conocidas también como las estrellas enanas frías o M.
Los científicos se centran en enanas M por varias razones, explicó. La órbita de los planetas alrededor de las enanas M es muy corta, lo que permite a los científicos recopilar datos sobre un mayor número de órbitas en un período más corto de tiempo del que se puede obtener en estrellas similares al Sol, que tienen grandes zonas habitables. Las enanas M son más comunes que las estrellas similares al Sol de la Tierra, lo que significa que pueden ser mejor observadas.

Según sus hallazgos, "la distancia media a la estrella más cercana con planetas potencialmente habitables es de unos siete años-luz. Eso es aproximadamente la mitad de la distancia de las estimaciones anteriores", dijo Kopparapu. "Hay alrededor de ocho estrellas frías dentro de un rango 10 años luz, por lo que de manera conservadora, deberíamos esperar encontrar unos tres planetas del tamaño de la Tierra en las zonas habitables".

El artículo se enmarca en un estudio reciente realizado por investigadores del Centro Harvard-Smithsoniano para Astrofísica que analizaron 3.987 enanas M para calcular el número de candidatos a planetas del tamaño de la Tierra en zonas habitables, una región alrededor de una estrella donde los planetas rocosos son capaces de sostener el agua líquida y por tanto la vida. Ese estudio utilizó los límites de la zona habitable calculada en 1993 por Jim Kasting.

Kopparapu cuenta que esos hallazgos, basados en datos del satélite Kepler de la NASA, no reflejan las estimaciones más recientes para determinar si los planetas caen dentro de una zona habitable.

Estas estimaciones más recientes se basan en un modelo actualizado desarrollado por Kopparapu y colaboradores, utilizando información sobre la absorción de agua y dióxido de carbono que no estaba disponible en 1993. Kopparapu aplicó esos hallazgos con el estudio del equipo de la Universidad de Harvard, utilizando el mismo método de cálculo, y encontró que hay planetas adicionales en las zonas recién determinadas como habitables.

Utilicé los nuevos cálculos de zona habitable y encontré que hay cerca de tres veces más planetas del tamaño de la Tierra en las zonas habitables alrededor de estas estrellas de baja masa respecto a las estimaciones anteriores", dijo Kopparapu. "Esto significa que los planetas del tamaño de la Tierra son más comunes de lo que pensamos, y eso es una buena señal para la detección de vida extraterrestre".  

     







Fuentes : EUROPA PRESS

El sistema de navegación Galileo fija su primera posición en la Tierra


Fotografía facilitada por la Agencia Espacial Europea (ESA) del sistema de navegación por satélite Galileo. EFEFotografía facilitada por la Agencia Espacial Europea (ESA) del sistema de navegación por satélite Galileo. EFE

París, 12 mar (EFE).- El sistema de navegación por satélite Galileo, la apuesta europea que competirá con el estadounidense GPS a partir de 2014, ha logrado fijar por primera vez una posición en la Tierra, informó hoy la Agencia Espacial Europea (ESA).

Se trata de un hito "histórico y técnico", declaró en un comunicado el director del proyecto Galileo, Javier Benedicto, pues es la primera vez que "Europa ha sido capaz de determinar una posición en el suelo utilizando su propio sistema de navegación independiente".


Fuente : EFE

El observatorio Alma despliega sus antenas en Chile

 Observatorio Alma
Vista del conjunto de antenas radiotelescópicas del observatorio Alma en la cordillera de Los Andes.


Este permitirá obtener detalles con mucha más resolución que con el telescopio Hubble.

El mayor observatorio terrestre del mundo, el Atacama Large Millimeter/submillimeter Array (Alma), desplegará este miércoles sus antenas en Chile para escrutar los recovecos más lejanos y desconocidos del Universo.

El presidente chileno, Sebastián Piñera, será el encargado de inaugurar este conjunto astronómico, construido a lo largo de la última década gracias a una alianza de países de Europa, Asia y Norteamérica.

Con este proyecto, que tiene un costo de 1.400 millones de dólares, será posible obtener detalles con al menos 10 veces mayor resolución que el telescopio espacial Hubble.

Aunque el observatorio comenzó oficialmente sus operaciones en octubre del 2011 con un tercio de sus antenas operativas, esta inauguración representa el inicio formal de la actividad de Alma, ya con 57 de sus 66 antenas en pleno funcionamiento.

Las demás antenas entrarán en funcionamiento antes de octubre. El observatorio está instalado a 5.000 metros de altitud en el llano de Chajnantor, situado en el inhóspito desierto de Atacama, cerca de la turística localidad de San Pedro y a unos 1.700 kilómetros al norte de Santiago.

Las antenas de Alma no funcionan como los telescopios ópticos tradicionales, sino como radiotelescopios. Esto quiere decir que están diseñadas para detectar las longitudes de onda milimétricas y submilimétricas, aproximadamente mil veces más largas que la luz visible.

La observación de estas longitudes de onda larga permite a los astrónomos estudiar objetos muy fríos en el espacio, como las densas nubes de polvo cósmico y gas donde se forman estrellas y planetas, así como objetos muy fríos en el Universo primitivo.

Al captar esas ondas, Alma podrá descubrir los misterios sobre la formación de las estrellas, que a veces los telescopios normales no pueden ver debido a las polvorientas concentraciones de gas de las que nacen.

La resolución de las imágenes obtenidas dependerá de la distancia entre las antenas, que se separarán progresivamente hasta abarcar una extensión de unos 16 kilómetros en un plazo de 3 o 4 años, explicó Pier Cox, que asumirá como nuevo director de Alma en abril.

CHILE
Fuentes : EFE

La ciencia pura, el patito feo de la investigación

Ciencia pura
Chile Antartica/Santiago de Chile. Un grupo de científicos tomó muestras de agua desde una lancha.

Ahora, la mayoría de los países están dando prioridad al desarrollo de la ciencia aplicada.

La ciencia pura, cuyo principal fin es ensanchar el conocimiento básico de la naturaleza, corre el riesgo de convertirse en el patito feo de la investigación si los gobiernos sólo priorizan las aplicaciones tecnológicas e industriales destinadas a cubrir las crecientes necesidades humanas.

Esta tendencia, sobre la que advierte un importante sector de la comunidad científica, convive sin embargo con el impulso a proyectos de investigación básica como el que estos días desarrolla el Instituto Antártico Chileno (INACH) con motivo de su 49ª expedición al "continente helado".

Una de estas iniciativas está a cargo de la bióloga marina Claudia Aracena, una experta en Oceanografía que estudia la influencia del agua dulce sobre la productividad primaria en la región de la Patagonia Sur y la Península Antártica.

"Lo que buscamos es determinar si las variaciones en el fitoplancton o las que quedaron registradas en los sedimentos están relacionadas con el cambio climático", explica la doctora.

Más allá de saber si la acción de los seres humanos influye en las variables biológicas del océano, esta investigación aspira a determinar qué influencia tiene el agua del derretimiento en la Península Antártica en comparación con la de la Cordillera de Darwin y del oeste del Estrecho de Magallanes.

"Esto es investigación básica", señala Claudia Aracena, cuya pasión por las ciencias naturales nació cuando de pequeña veía las fotografías de los glaciares y fiordos que su padre le mostraba de sus viajes al sur de Chile.

La mayoría de los países están dando prioridad al desarrollo de la ciencia aplicada, "pero la investigación básica es muy importante, porque es la que permite proyectarse hacia el futuro", asegura. "Por ejemplo, con este estudio se puede tener un mayor grado de conocimiento de cuál es la situación en Chile en materia de cambio climático y así el país puede prepararse mejor", explica.

La ciencia aplicada, orientada a usos específicos en la industria, la medicina o el desarrollo tecnológico, no sería posible sin la investigación básica, coincide en señalar la también bióloga marina Silvia Murcia, especialista en ecología de agua dulce "A partir de la investigación básica se pueden entender ciertos parámetros de una especie y eso luego puede ser útil, por ejemplo, para la alimentación o el cultivo de salmones. Por eso entiendo que los gobiernos también financien la investigación aplicada", detalla la doctora Murcia.

"La investigación básica depende mucho de cómo se maneja la ciencia en cada país y cuáles son los intereses del sistema político", opina por su parte la profesora Aracena. "En este momento Chile quiere mejorar su situación económica, pero la dirección por la que va la ciencia -dice- es un poco cuestionable, porque se están priorizando las patentes y los inventos, y la ciencia básica va a quedar cada vez más reducida".

Para los investigadores que hacen ciencia pura "va a ser un desafío muy grande adjudicarse proyectos en el futuro", sostiene Aracena. El proyecto en el que actualmente trabaja esta bióloga dura tres años y tiene un presupuesto de cuatro millones de pesos (unos 8.300 dólares), pero con eso apenas tiene para financiar el 30 por ciento.

La Comisión Nacional de Investigación Científica y Tecnológica (Conicyt), el principal organismo encargado de la ciencia en Chile, manejó en 2012 un presupuesto de 500 millones de dólares, casi tres veces más que en 2008. En un país donde la inversión en I+D alcanza el 0,5 por ciento del PIB (cifra que actualmente es 0,5 %), Conicyt considera "urgente aumentar el número de científicos capaces de liderar proyectos de investigación" y ya ha adjudicado 631 proyectos regulares para este año. "Recortar el presupuesto destinado a la investigación básica sería como quitarle pilares a un edificio.

Sin la ciencia básica, las aplicadas no pueden avanzar", asegura Claudia Aracena, quien a pesar de todo se muestra optimista. "El día de mañana, en las decisiones que se tomen para orientar la ciencia, yo espero que nos escuchen más los políticos, que finalmente son los que deciden el futuro del país. "Si en Chile no existiera un plan científico como el que tenemos, no habría investigación antártica.

Contamos con los medios para hacer ciencia. Eso es un avance que nos permite compararnos con otros países, pero aquí también hay mucho de altruismo y sacrificio", asegura.
Fuente : EFE. El tiempo.com

La gravedad funciona igual en todas las zonas del universo

[Img #12458]
La galaxia de Andrómeda. (Foto: Bill Schoening, Vanessa Harvey / REU Program / NOAO / AURA / NSF)

A juzgar por los resultados de una nueva investigación, una propiedad crucial medida en galaxias enanas que son satélites de una galaxia grande y cercana, la de Andrómeda, coincide con notable exactitud con la predicción hecha por una hipótesis conocida como Dinámica Newtoniana Modificada, o MOND (acrónimo de MOdified Newtonian Dynamics), la cual postula que la gravedad no funciona igual en todas las regiones del universo. En pocas palabras, la MOND sugiere que, bajo ciertas condiciones, la ley de la gravitación de Newton resulta alterada.

La propiedad galáctica predicha que se ha medido en este estudio es la velocidad promedio de objetos, unos con respecto a otros, dentro de una galaxia.

La predicción, efectuada mediante la Dinámica Newtoniana Modificada, por el equipo de Mordehai (Moti) Milgrom, del Instituto Weizmann de Ciencia, en Israel, y Stacy McGaugh, de la Universidad Case Western Reserve, en Cleveland, Ohio, Estados Unidos, es la última de varias hechas a la luz de esta hipótesis y que han tenido acierto.

Los astrónomos y los físicos necesitan alguna explicación para el hecho de que las galaxias rotan más rápido que lo predicho por la ley de la gravedad, sin que sus astros salgan despedidos hacia el espacio intergaláctico.

Esa necesidad propició que diversos científicos teorizasen que hay materia "invisible" que aporta la masa extra para explicar esa anomalía. A esta materia oculta que mantiene atados a los astros de una galaxia se la llama materia oscura, y se comenzó a tener en cuenta esta posibilidad a partir de 1932, de la mano del astrónomo holandés Jan Oort.


Sin embargo, sigue sin haber evidencias directas y claras de la existencia de la materia oscura. Y además existen, a juicio de algunos científicos, cabos sueltos que podrían indicar errores.

Insatisfecho con la hipótesis de la materia oscura, Milgrom introdujo en 1983 la hipótesis de la Dinámica Newtoniana Modificada (MOND), que explica las aparentes anomalías vistas en la dinámica de los sistemas cósmicos, sin tener que recurrir a agregar masa extra oculta para poder explicar lo observado.

Los resultados de la nueva investigación son ciertamente intrigantes, ya que parecen poner en tela de juicio la precisión del modelo cosmológico hoy vigente del universo.

Información adicional



Fuentes:http://blog.case.edu/think/2013/02/14/mond_used_to_predict_key_property_in_andromedaas_satellites

El robot Curiosity encuentra ingredientes clave para la vida en Marte


Curiosity

Curiosity recolectó una cucharada de polvo del agujero que taladró en la superficie de Marte. 

Científicos de la Agencia Espacial Estadounidense (NASA, por sus siglas en inglés), dicen que el robot Curiosity ha encontrado en Marte los elementos químicos básicos que podrían haber sustentado vida primitiva en un pasado distante.

El robot analizaba una muestra de roca sedimentaria que perforó el mes pasado en lo que alguna vez fue el lecho de un río.
La máquina identificó azufre, nitrógeno, hidrógeno, oxígeno, fósforo y carbono en la roca.

Los investigadores afirman que estos elementos podrían haberse combinado para proveer una posible fuente de energía para microorganismos.

El especialista en Ciencia de la BBC, Jonathan Amos, informa que aún queda por demostrarse que existió vida alguna vez en el planeta rojo. Pero es otra pieza importante del rompecabezas.

En años recientes, los robots que aterrizaron en la superficie marciana han estado analizando rocas que estuvieron en contacto con agua más ácida, un ambiente considerado como menos favorable para la vida.


Fuentes:http://www.bbc.co.uk/mundo/ultimas_noticias/2013/03/130312_ultnot_marte_curiosity_indicios_vida_jgc.shtml

11 de marzo de 2013

Arranca el telescopio gigante


Ilustración del futuro telescopio gigante europeo E-ELT, en el cerro Armazones (Chile). / ESO

-España no se ha sumado aún al proyecto. El observatorio europeo, de 40 metros de diámetro, será el mayor del mundo y estará en Chile

-Los astrónomos piden al Gobierno que España participe

Por fin se han juntado los 1.083 millones de euros, a invertir en 14 años, necesarios para hacer realidad el mayor telescopio del mundo, el E-ELT. O casi. Los países del Observatorio Europeo Austral (ESO) celebran mañana en Santiago de Chile una reunión extraordinaria del Consejo de sus países miembros en la que está previsto dar el pistoletazo de salida a la construcción de este gran proyecto, planeado desde hace unos años, que debe conferir una posición privilegiada a la astronomía del viejo continente. Ni siquiera EE UU tiene planes tan ambiciosos. El último impedimento para empezar a andar, una vez completado el diseño de ingeniería y elegido el lugar (el desierto chileno de Atacama), era la cuestión económica. Ahora se han comprometido ya 11 de los 14 países del ESO y están pendientes de la ratificación de Brasil como nuevo socio, lo que debe permitir la completa financiación del E-ELT (siglas en inglés del Telescopio Europeo Extremadamente Grande). Pero España no está entre los 11 participantes confirmados del futuro observatorio. Tendría que pagar 40 millones de euros (en más de una década) para estar dentro. Tampoco están Portugal ni Dinamarca, aunque parece haber movimientos en ese último país.

Precisamente, pidiendo al Gobierno español que entre en la construcción del E-ELT se han manifestado este fin de semana casi 300 personas, en su mayoría astrónomos, en una carta abierta que recuerda que la ausencia en este proyecto supondrá “un retroceso irrecuperable” para la ciencia y la industria españolas. La carta argumenta que “si España no participa en la construcción del E-ELT, los investigadores, centros de I+D y empresas españolas no podrán participar en las actividades del proyecto ni optar a los contratos que el ESO otorgará para su construcción”. Y añade: “España, octava potencia mundial en astronomía, es en estos momentos el único gran país europeo que no ha suscrito el programa”.

"La gran instalación será la estrella de la astronomía mundial"

Un portavoz de la Secretaría de Estado de Investigación (Ministerio de Economía) dijo ayer a EL PAÍS: “Seguimos sin una decisión definitiva. El compromiso es claro, se han invertido ya muchos millones desde 2006, pero estamos estudiando cómo concretar nuestra participación”. La cuota anual española al ESO es de 11 millones de euros.
Con casi 40 metros de diámetro, el E-ELT será el telescopio óptico e infrarrojo cercano más grande del mundo, mucho mayor que los de la generación actual, que rondan los ocho o diez metros, e incluso que los dos estadounidenses en proyecto: el Telescopio de 30 Metros, en Hawai, y el Telescopio Gigante Gemini (25 metros), en Chile.

“El E-ELT será la estrella de la astronomía mundial dentro de una década, con Europa liderando la exploración del universo desde tierra”, comenta el astrónomo español Xavier Barcons, presidente del Consejo del ESO. “Los países europeos, y España como el que más, llevan una década preparando la ciencia que se hará con el E-ELT y rompiendo barreras tecnológicas; ahora estamos listos para empezar a construirlo”.

"El coste total del proyecto asciende a 1.083 millones de euros"

Con ese gran ojo abierto al cielo, los astrónomos esperan poder observar planetas como la Tierra en órbita de otras estrellas, acceder a los primeros objetos que se formaron en el universo o estudiar la naturaleza y la distribución de la materia y la energía oscuras. Será a partir de 2012.

Las cuentas del telescopio están ahora claras. Algo más de 300 millones saldrán del presupuesto normal del ESO durante el período de construcción; el ingreso de Brasil podrá suponer, al menos, 300 millones más y las contribuciones específicas de los actuales países miembros para el E-ELT deben sumar 400 millones (aquí entran los 40 que España tendría que aportar para participar en el proyecto).

Además de la ciencia, también la industria española tiene intereses ya creados en el proyecto, impulsados por sus trabajos en las fases previas de diseño y prototipos. “España tiene un claro interés especialmente en la cúpula y en la estructura principal del telescopio”, dice el ESO.


800 espejos en uno
El espejo principal del telescopio gigante E-ELT, de 39,3 metros de diámetro, no será una pieza única, sino que estará formado por 800 segmentos hexagonales de 1,4 metros de diámetro máximo cada uno y solo medio centímetro de grosor. En total formarán una superficie captadora de la luz de las estrellas de más de 1.100 metros cuadrados, frente a los 74 metros del Gran Telescopio de Canarias, de 10,4 metros de diámetro. El futuro observatorio europeo cubrirá un área del cielo de aproximadamente una décima parte del tamaño de la luna llena.

“El telescopio tiene un innovador diseño de cinco espejos que incluye una óptica adaptativa avanzada para corregir el efecto de las turbulencias atmosféricas y obtener imágenes 15 veces más nítidas que las obtenidas por el telescopio espacial Hubble”, aseguran los expertos del Observatorio Europeo Austral (ESO).

La estructura del telescopio pesará 3.000 toneladas, más 700 de los sistemas ópticos, mecánicos y electrónicos que deben desplazarse suavemente y con gran precisión al seguir los astros en el cielo. Es todo un reto de ingeniería que ha exigido años de trabajo de decenas de científicos e ingenieros hasta poner a punto el diseño final.

Para su ubicación, la ESO, ha elegido el cerro Armazones, dadas las condiciones óptimas del cielo allí. Con una altitud de 3.060 metros, el cerro está en la zona central del desierto chileno de Atacama.


Fuentes : EL PAÍS , ESO

Los astrónomos se movilizan para que España participe en el mayor telescopio del mundo


Figuración del Telescopio Europeo Extremadamente Grande en Chile. | ESO


Figuración del Telescopio Europeo Extremadamente Grande en Chile. | ESO   

Recogida de firmas a través de internet          

España aún no ha comunicado su participación en la construcción delTelescopio Europeo Extremadamente Grande (ELT), del Observatorio Austral Europeo, y ya son centenares los astrónomos que han comentado su disconformidad con la negativa a un proyecto que consideran "genera unas oportunidades sin precedentes para la actividad económica en la I+D+i española". Mediante la plataforma de activismo online Change, cientos de astrofísicos, astrónomos y ciudadanos comprometidos con la ciencia en España piden al gobierno que participe en su construcción.

La posible no participación de España se justifica desde el gobierno por la mala situación económica. La aportación de España sería de 40 millones de euros repartidos en 10 años, esto es, 4 millones al año. Los firmantes, sin embargo, consideran que, siendo España la octava potencia mundial en astronomía, resulta inaceptable su no participación en un proyecto que tiene "importantes retornos de alta calidad para la industria española". La inversión, además, permitiría a diversas empresas españolas participar en la construcción de la infraestructura del telescopio.
Los días 11 y 12 de Marzo se celebra en Santiago de Chile una reunión del consejo del Observatorio Europeo Austral donde se deberá aclarar la participación de todos los países que aún no se han sumado. Desde la Secretaría de Estado de Investigación, Desarrollo e Innovación afirman que no se ha descartado ninguna opción, pero no hay una decisión tomada.    
La posible no participación de España en este proyecto no es un caso inédito. La aportación de España al CERN también sufre peligros. 
Solo ha aportado el 25 por ciento de su cuota de 2012 y falta aún por abonar toda la de 2013, lo que suma casi 55 millones de euros. Tampoco la carta de los astrónomos al gobierno es nueva. El pasado mes de febrero la Confederación de Sociedades Científicas de España (Cosce) exigió en una carta a Rajoy una política científica coherente y mayor inversión en I+D+i.



Fuentes : ELMUNDO.es

Simulaciones digitales para deducir qué ocurre tras una explosión de supernova


[Img #12281]

Simulación digital de parte del proceso que se pone en marcha con la explosión en forma de supernova de una estrella. (Imagen: Carola Ellinger)

Unos investigadores quieren llenar el vacío existente en el conocimiento entre lo que se sabe acerca de las estrellas en explosión de supernova, y lo que se sabe sobre sus restos miles de años más tarde. A tal fin, están intentando algo nuevo utilizando el SNSPH, un complejo software desarrollado en el Laboratorio Nacional de Los Álamos, en Nuevo México, Estados Unidos.

El equipo de Carola I. Ellinger y Sangwook Park, de la Universidad de Texas en Arlington, ha estado usando dicho software para generar simulaciones en 3D sobre supernovas que están en su fase intermedia de remanentes de la explosión, una fase sobre la que se sabe poco.

Hay infinidad de simulaciones numéricas de explosiones de supernovas y también muchas simulaciones de ondas de choque en el medio interestelar, pero no había ningún trabajo meticuloso que conectara a los dos, aún cuando en la física sí están conectados. Ahora, la labor de Ellinger y Park, así como de Gabriel Rockefeller y Chris Fryer del Laboratorio Nacional de Los Álamos, y Patrick Young de la Universidad Estatal de Arizona, está remediando esa situación.

Ellinger espera que las simulaciones se puedan utilizar para interpretar los datos reunidos por el Telescopio Espacial Chandra de Rayos X, de la NASA, así como en otras misiones, como la del satélite astronómico NuSTAR, lanzado en 2012.

El equipo de investigación utilizó para los cálculos los recursos computacionales del Centro de Computación Avanzada de Texas, en la Universidad de Texas, situada en la ciudad de Austin.

Disponiendo de datos más detallados, los científicos que estudian los remanentes de supernovas en la Vía Láctea son ahora capaces de diferenciar entre los "escombros" que fueron expulsados de la estrella que explotó, también llamada progenitora, y el material preexistente en el espacio interestelar, que fue arrastrado por la onda de choque. Esto da a los investigadores algunos de los parámetros que necesitan para rastrear de manera fiable la historia del remanente.

Información adicional




Fuentes : The University of Texas at Arlington

GOCE: el primer sismómetro en órbita



Los satélites registran los cambios provocados por los terremotos en la superficie de la Tierra, pero nunca antes habían sondeado directamente las ondas de un temblor en el espacio – hasta ahora. GOCE, el satélite de gravedad híper-sensible de la ESA, acaba de añadir otro logro a su lista de éxitos pioneros.

Los terremotos no solo crean ondas sísmicas que viajan a través del interior de la tierra, los grandes seísmos también hacen que la superficie del planeta vibre como la piel de un tambor. Esto genera ondas de sonido que viajan hacia arriba a través de la atmósfera.

El tamaño de estas ondas cambia, de centímetros en la superficie, a kilómetros en la fina atmósfera a altitudes de 200–300 km.

Solo las ondas de sonido de baja frecuencia – infrasonidos – alcanzan estas alturas. Causan movimientos verticales que expanden y contraen la atmósfera acelerando las partículas del aire.

El lunes, Japón recordará a los 20.000 fallecidos en el terremoto y el tsunami que asolaron la costa noreste hace dos años. Nuevos estudios han revelado que este devastador seísmo también se sintió en el espacio por el satélite GOCE de la ESA.
Lanzado en el año 2009, GOCE ha estado cartografiando la gravedad de la Tierra con una precisión sin precedentes, orbitando a la altitud más baja a la que ha orbitado ningún otro satélite de observación. Pero a menos de 270 km de altura, tuvo que enfrentarse a una fuerte resistencia aerodinámica al atravesar un remanente de la atmósfera.


El satélite, inteligentemente diseñado, lleva un innovador instrumento que compensa instantáneamente cualquier alteración generando impulsos calculados con mucha precisión. Estas medidas son proporcionadas por acelerómetros muy precisos.

Mientras que las medidas aseguran que GOCE permanece ultraestable en su órbita baja con el fin de recoger medidas ultraprecisas de la gravedad de la Tierra, la densidad atmosférica y los vientos verticales a lo largo de su camino pueden inferirse de los datos del acelerómetro y de los impulsos generados.

Científicos del Instituto de Investigación en Astrofísica y Planetología (Francia), de la Agencia Espacial Francesa (CNES), del Instituto de Ciencias Físicas de la Tierra (París) y de la Universidad Delft de Tecnología (Países Bajos), con el respaldo del área de apoyo a la ciencia de observación de la Tierra (Earth Observation Support to Science Element) de la ESA, han explotado al máximo los datos de GOCE estudiando las medidas realizadas hasta ahora.

Descubrieron que GOCE detectó ondas de sonido procedentes del devastador terremoto que afectó a Japón en el 11 de marzo 2011.

Cuando GOCE pasó a través de estas ondas, sus acelerómetros registraron el desplazamiento vertical de la atmósfera circundante de un modo similar al que los sismómetros registran los terremotos en la superficie de la Tierra. También se observaron variaciones en forma de ondas en la densidad del aire.

Rafael García, del Instituto de Investigación en Astrofísica y Planetología, afirmó que “Los sismólogos están especialmente emocionados con estos descubrimientos ya que eran, virtualmente, los únicos científicos de la Tierra sin un instrumento espacial que pudiera compararse directamente con los que se utilizan en tierra. Con esta nueva herramienta pueden empezar a mirar hacia el espacio para comprender qué ocurre bajo sus pies”.


Fuentes: ESA.

Hallados canales enterrados bajo la superficie de Marte



Nuevos mapas del subsuelo marciano muestran por primera vez la existencia de canales enterrados bajo la superficie del planeta rojo. Los científicos creen que la temperatura de Marte ha sido fría y su ambiente seco durante los últimos 2,5 millones de años, pero estos canales surgieron a causa de grandes inundaciones sobre la superficie del planeta.

Comprender el origen y la magnitud de estos canales encontrados en Elysium Planitia, una llanura que se extiende a lo largo del ecuador en una zona volcánica, es esencial para entender la actividad hidrológica marciana y determinar así, si este tipo de inundaciones podrían haber inducido un cambio climático en Marte.

Este estudio ha sido liderado por Gareth A. Morgan, del Smithsonian, y reportado por un equipo de la NASA para su publicación en la revista Science.
Como consecuencia de una actividad volcánica extensa a lo largo de los últimos cientos del millones de años, la lava recién arrojada por los volcanes cubre la mayor parte de la superficie de Elysium Planitia, enterrando la historia geológica reciente de la zona, incluyendo la mayor parte de los 1.000 kilómetros de longitud del sistema de canales Marte Vallis.

      Marte Vallis

Marte Vallis tiene una morfología similar a la de los sistemas de canales marcianos más antiguos, que probablemente se formaron por la liberación catastrófica de las aguas subterráneas. Pero como Marte Vallis está enterrado por la lava, poco se sabe de su historia geológica.

Cerberus Fossae en Elysium Planitia. Elysium Planitia es la segunda región volcánica más grande de Marte, después de Tharsis Montes. Incluye los volcanes de, de norte a sur: Hecates Tholus, Elysium Mons y Albor Tholus, así como el cráter Lockyer. La región de Elysium Planitia se encuentra centrada en torno a las coordenadas 2.0 N, 155.0 E., y ocupa una superficie total aproximada de 2,5 millones de km².

El equipo de científicos utilizó los instrumentos a bordo de la Mars Reconnaissance Orbiter (MRO) para explorar el subsuelo de Elysium Planitia. Fueron capaces de cartografiar los canales enterrados y de establecer que las inundaciones se originaron a partir de un área enterrada del sistema de fracturas Cerberus Fossae.


Imagen: Smithsonian / NASA / JPL-Caltech / Universidad La Sapienza de Roma

Ejemplo de datos SHARAD utilizados en el estudio. SHARAD datos se presentan como radargramas que representan el tiempo de retardo de la señal de retorno contra la distancia a lo largo de la superficie marciana. De esto se puede identificar la superficie y la estructura del subsuelo. A lo largo de este Elysium Planitia dos reflectores del subsuelo paralelas están presentes (L1R y L2R), que interpretamos como límites entre amplias capas geológicas. La formación de Marte Vallis cortar los canales a través de estos límites. Así, desde la identificación de donde los reflectores están ausentes, hemos sido capaces de trazar la forma y la escala de los canales de Marte Vallis.


"Nuestros hallazgos muestran que en anteriores estudios se subestimó la magnitud de la erosión, por lo que la profundidad de los canales se estimó en la mitad de las medidas actuales", comentó Morgan, autor principal del artículo. "La fuente de las aguas que provocaron la inundación sugieren que se originaron a partir de un depósito de aguas subterráneas profundas que pudieron ser liberadas por actividad tectónica o volcánica en la zona. Este estudio de muestra la importancia que ha tenido el agua en la remodelación de la estructura superficial de Marte".

Historia geológica de Elysium Planitia



Más información en el enlace.



Fuentes : http://newsdesk.si.edu/releases/new-3-d-reconstructions-show-buried-flood-channels-mars

Reconstruyen la temperatura global desde hace más de 11.000 años



Un estudio de la Universidad Estatal de Oregón y la de Harvard asegura que, en la actualidad, el promedio de la temperatura del aire cerca de la superficie terrestre es más cálida que durante la mayoría de los últimos 11.300 años.

Es un hecho que el clima se ha calentado desde la revolución industrial. Estudios científicos que contemplan los últimos 1.500 años sugieren que el calentamiento global actual no tiene precedentes.

Un equipo de investigadores de dos universidades estadounidenses, liderado por Shaun Marcott, de la Universidad Estatal de Oregón, ha combinado registros de temperatura de todo el planeta para descifrar cómo ha cambiado la temperatura regional y global durante los últimos 11.300 años (Holoceno).

“El clima actual puede calibrarse a partir de datos instrumentales en la superficie del planeta o por medio de satélites. Pero, para determinar el clima más allá de los últimos 150 años, se necesitan métodos más indirectos”, apunta el estudio.

Los geólogos que participaron en el trabajo desarrollaron registros de temperatura del pasado de forma local, en todo el planeta, por medio de muestras marinas y terrestres como corales o conchas de ciertos organismos marinos.




Según los expertos, “estas muestras tienen firmas químicas y físicas que proveen registros confiables de temperaturas”. Los investigadores combinaron estos registros como muestra 'maestra' y el patrón que surge señala un aumento en la temperatura conforme la última era glacial toca a su fin.

Las condiciones cálidas continuaron hasta la mitad del Holoceno, seguidas por una tendencia de enfriamiento durante los siguientes 5.000 años, que culminaron hace alrededor de 200 años. Desde entonces, las temperaturas han aumentado constantemente, dejando a la Tierra con una temperatura global más alta que durante el 90% de todo el Holoceno.

“Si los modelos son correctos, el planeta sobrepasará la calidez pico del Holoceno para el 2100”, concluyen.


Fuentes: SINC.

Abriendo una ventana al océano de Europa


Sobre la base de los nuevos datos del Observatorio WM Keck sobre la luna de Júpiter, Europa, los astrónomos la hipótesis de que las sales de cloruro brotan del océano mundial líquido de la luna helada y llegar a la superficie congelada donde son bombardeados con azufre de los volcanes de la luna más grande de Júpiter, Io. Esta ilustración de Europa (en primer plano), Júpiter (derecha) y Io (centro) es el concepto de un artista. Crédito: NASA / JPL-Caltech


Gracias a los datos aportados por el telescopio del Observatorio Keck, perteneciente al Instituto Tecnológico de California, los astrofísicos Mike Brown y Kevin Hand han encontrado la evidencia más consistente hasta la fecha, de que el agua salada presente bajo la corteza helada de la luna Europa, se abre paso hasta la superficie del satélite.Los datos sugieren que hay un intercambio químico entre el agua del océano y la superficie helada, haciendo que el océano sea más rico químicamente. Además esta técnica permite estudiar este océano analizando la superficie de la luna. Este trabajo va a ser publicado en la revista Astronomical Journal.
Estos resultados se han obtenido gracias a un estudio espectroscópico realizado en el Observatorio Keck, que opera con parte de los instrumentos más productivos del planeta.
"Ahora contamos con el mejor espectro obtenido hasta la fecha", dice Brown. "Como hasta ahora no se tenía la resolución necesaria, no se podría analizar el espectro en el grado en el que se ha detallado en este estudio".


El Keck II, un telescopio de diez metros, equipado con óptica adaptativa para ajustar el efecto borroso causado por la atmósfera terrestre, junto a OSIRIS, un espectrógrafo infrarrojo, consiguieron detectar detalles que no logró ni la sonda Galileo cuando fue enviada a estudiar el sistema formado por Júpiter y sus lunas.

"Ahora tenemos pruebas de que el océano de Europa no está aislado, sino que intercambia productos químicos" , comenta Brown, profesor de astronomía planetaria en el Caltech. "Esto significa que también podría haber un intercambio de energía lo que es importante en la posibilidad de encontrar vida en el océano. También significa que estudiando la superficie de Europa, podemos obtener datos sobre su océano interior".

"La superficie de hielo nos proporciona una ventana a ese océano interior con posibilidades de ser habitado", comenta Hand, del JPL.
Desde que la sonda Galileo reveló que la luna Europa estaba cubierta por una capa de hielo, los científicos han debatido sobre la composición de ésta. El espectrómetro que llevaba Galileo no fue capaz de proporcionar unos datos con la precisión adecuada para identificar definitivamente algunos de los materiales presentes en la superficie. Ahora, usando la tecnología actual, podemos obtener estos datos desde nuestro planeta, sin la necesidad de enviar una sonda espacial. Brown y Hand han identificado definitivamente una característica espectroscópica en la superficie de Europa que delata la presencia de una sal de sulfato de magnesio, un mineral llamado epsomita que sólo podría originares en el océano de la luna.


"La única manera de que el magnesio se encuentre en la superficie de la luna, es que provenga de su océano", aforma Brown. "Esto quiere decir que el agua del océano se eleva hacia la superficie".

Los científicos creen que el océano presente en Europa cubre todo el globo y que se encuentra a unos 100 kilómetros de profundidad. La luna presenta un acoplamiento de mareas con respecto a Júpiter, es decir, siempre muestra la misma cara al planeta. El hemisferio de avance tiene un aspecto amarillento, mientras que el hemisferio de cola parece estar salpicado y manchado de un material de color rojo.




Los datos espectroscópicos del lado rojo han suscitado un gran debate durante los últimos 15 años. Se cree que una de las lunas más grande de Júpiter, Io, arroja azufre volcánico fuera de su atmósfera, llegando estos compuestos al hemisferio de cola de Europa, a través del campo magnético generado por Júpiter. La sonda Galileo ya había descubierto que en hemisferio de cola no sólo había presente hielo de agua puro. El debate se centro en el origen del resto de compuestos, es decir, en lo que ha provocado que las firmas espectroscópicas de ese área se desvíen de la firma de hielo de agua pura.

"A partir de los datos espectroscópicos de Galileo, los científicos sabían que en el hemisferio de cola había algo más que agua. Se ha discutido durante años sobre qué podía estar presente en esa zona de la luna: sulfato de sodio, sulfato de hidrógeno, carbonato ácido de sodio...ya que el espectrómetro de la sonda no fue capaz de distinguir entre ellos". Explica Brown.
Brown y Hand pensaron que los espectrómetros terrestres actuales podrían mejorar los datos obtenidos por Galileo a pesar de la distancia que nos separa de Europa. Los espectros obtenidos por el Keck II mostraron una distribución del hielo de agua pura en la luna en relación a otros compuestos. Los resultados mostraron que incluso en el hemisferio de avance de la luna había otras sustancias de hielo diferentes del agua pura, siendo en las latitudes bajas del hemisferio de cola, donde encontraron la mayor concentración de sustancias heladas diferentes al hielo de agua.

Los dos investigadores realizaron diversas simulaciones para averiguar qué compuestos son los que están presentes en la superficie de la luna, dando como resultado positivo el sulfato de magnesio, tal y como habían sospechado algunos científicos desde hacía tiempo. La parte posterior de la luna es bombardeada por el sulfuro procedente de Io, que combinado con el magnesio presente en Europa, genera el sulfuro de magnesio detectado.



Brown y Hand creen que este magnesio procede del cloruro de magnesio. Pero este no es el único elemento detectado en la luna. Hace quince años, Brown mostró que Europa está rodeada por una atmósfera compuesta por átomos de sodio y potasio, presumiblemente procedentes de la superficie. Pero estas sales no son detectables ya que no tienen unas características espectrales claras.

Los científicos combinaron esta información con el hecho de que el océano de Europa sólo puede ser de dos tipos: rico en sulfatos o rico en cloruros. Después de haber descartado un océano rico en sulfato de magnesio ya que éste sólo es predominante en el hemisferio de salida, Browny Hand señalaron que el océano sería rico en cloro, estando el sodio y el potasio presentes en forma de cloruros.

Por lo tanto, comenta Brown, se cree que la composición del océano de Europa es similar a la del océano terrestre.

Hand comenta que desde el punto de vista astrobiológico, Europa es uno de los firmes candidatos en la búsqueda de vida extraterrestre. "Si algo hemos aprendido acerca de la vida en la Tierra, es que donde hay agua líquida, por lo general hay vida.Y, por supuesto, nuestro mar es un océano salado agradable. Quizás el océano salado de Europa pueda ser también un lugar maravilloso para la vida. "


       

Instituto Tecnológico de California               Kevin Hand, del Laboratorio de Propulsión
(Caltech),astrónomo Mike Brown.                  a Chorro (JPL).Crédito: NASA / JPL                   

                   Crédito: Caltech



Más información en el enlace.


Fuentes : W. M. Keck Observatory press release

¿Causará el cometa C/2013 A1 (Siding Spring) una lluvia de meteoros en Marte?

Concepción artística de un cometa Siding Spring pasando Marte

El 19 de octubre de 2014 el cometa C/2013 A1 (Siding Spring) realizará una aproximación muy cercana al planeta Marte. Algunas fuentes han indicado que este cuerpo podría impactar contra el planeta rojo, pero todavía no podemos afirmar que este evento vaya a ocurrir ya que la incertidumbre en su posición es muy grande, por lo que es prematuro indicar que va a existir colisión o no.

Pero los científicos no ignoran la presencia de este cometa debido a que a su paso dejará una nube de escombros que podría dañar todas las sondas que en la actualidad están estudiando a Marte. Para que nuestras naves se vean perjudicadas este cometa debería pasar muy cerca de Marte, tal y como afirma el astrofísico Mike Kelley.

Otra de las cuestiones a tener en cuenta, es la posibilidad de que los escombros dejados por el cometa a su paso generen una lluvia de meteoros sobre el planeta. Cuando un cometa se ha aproximado mucho a la Tierra, la consecuencia ha sido la observación de una gran tormenta de meteoros como ocurrió en los años 1933 y 1946 cuando el cometa 21P/Giacobinni-Zinner se acercó mucho a nosotros, contabilizándose miles de meteoros por hora.


Teniendo esto en cuenta, se ha calculado la distancia de la cola del cometa a Marte en su máximo acercamiento. Afortunadamente, en este encuentro, la cola apuntará hacia fuera del planeta, por lo que nunca estará más cerca de Marte que el propio núcleo. Esta distancia se ha estimado en 100.000 kilómetros. Aún así si la coma expulsa pequeños granos de polvo, estos sí podrían provocar meteoros. Pero esto no es muy probable. Simulaciones informáticas muestran que estos granos de polvo serían expulsados con velocidades bajas, de tal vez sólo un metro por segundo o menos, por lo que tardarían más de un año en recorrer los 100.000 kilómetros de separación entre el cometa y Marte, si tenemos en cuenta la presión de radiación. 

De todas formas, para dar unas predicciones más fiables tenemos que esperar a que se calcule con más detalle la órbita del cometa.


Más información en el enlace.



Fuentes : http://www.planetary.org/blogs/emily-lakdawalla/2013/03051422-siding-spring-meteor-shower-mars.html

Las observaciones de Herschel pronto llegarán a su fin



Tras pasar más de tres emocionantes años estudiando el universo frío, se estima que, en las próximas semanas, se agotará el suministro de helio liquido refrigerante del observatorio espacial Herschel de la ESA.

Herschel fue lanzado el 14 de mayo de 2009 y, con un espejo primario de 3,5 m, es el telescopio infrarrojo más grande y potente jamás lanzado al espacio.

Esta misión pionera ha sido la primera en cubrir todo el rango en la longitud de onda que va desde el infrarrojo lejano hasta el submilimétrico, haciendo posible el estudio de regiones frías de gas y polvo del cosmos antes invisibles, y proporcionando nuevos conocimientos sobre el origen y la evolución de las estrellas y las galaxias.

Con la finalidad de poder llevar a cabo este tipo de observaciones tan sensibles en el infrarrojo lejano, los detectores de los tres instrumentos científicos –dos cámaras/espectrómetro de imagen y un espectrómetro de muy alta resolución – deben enfriarse a una temperatura de –271°C, cerca del cero absoluto. Están en el extremo superior de un tanque lleno de helio superfluido líquido, dentro de un enorme tanque conocido como criostato.

El helio superfluido se evapora con el tiempo, vaciando el tanque gradualmente y determinando el periodo de vida científica de Herschel. Al lanzarlo, el criostato estaba lleno hasta los bordes con cerca de 2.300 litros de helio líquido (335 kg) lo que garantizaba 3,5 años de operaciones en el espacio.

De hecho, Herschel ha hecho extraordinarios descubrimientos en un amplio rango de temas, desde galaxias con estallidos de formación estelar en el universo distante hasta nuevos sistemas planetarios en formación orbitando jóvenes estrellas cercanas.

Sin embargo, todo lo bueno llega a su fin, y los ingenieros creen que casi todo el helio líquido se ha gastado.

No es posible predecir el día exacto en el que el helio se agotará por completo, pero la confirmación llegará cuando Herschel empiece su próximo periodo de comunicación diario de 3 horas con las estaciones terrestres.

“No debe sorprendernos cuando ocurra, y cuando pase veremos la temperatura de todos los instrumentos elevarse varios grados en tan solo unas horas”, afirma Micha Schmidt, el Jefe de Operaciones de Misiones de Herschel en ESOC (European Space Operations Centre) de la ESA, en Darmstadt, Alemania.

El programa de observación científica fue planeado minuciosamente con el fin de sacar el máximo partido del periodo de vida de la misión, y todas las observaciones de alta prioridad ya se han llevado a cabo.

Además, Herschel está llevando a cabo numerosas observaciones de gran interés elegidas específicamente con la finalidad de explotar hasta la última gota de helio.

“Cuando finalicen las observaciones, esperamos haber llevado a cabo 22.000 horas de observaciones científicas, un 10% más de lo planificado en un principio, por lo que la misión ya ha superado sus expectativas”, afirma Leo Metcalfe, Jefe de la Misión y Jefe de Operaciones Científicas de Herschel de la ESA en ESAC (Centro Europeo de Astronomía Espacial) en Madrid, España.

“Pronto las observaciones llegarán a su fin, pero los datos de Herschel permitirán que se haga una enorme cantidad de ciencia emocionante durante muchos años”, señala Göran Pilbratt, Jefe Científico del Proyecto Herschel de la ESA en ESTEC (European Space Research and Technology Centre) en Noordwijk, Países Bajos.

“De hecho, el pico de productividad científica aún está por llegar, y ahora nuestro trabajo consiste en poner en valor los datos de Herschel tanto como nos sea posible, tanto por la ciencia actual como por la futura”.

Herschel seguirá comunicándose con las estaciones terrestres durante un tiempo después de que se haya agotado el helio, permitiendo una serie de comprobaciones técnicas. Finalmente, a principios de mayo, será impulsado hacia una órbita estable a largo plazo alrededor del Sol.



Fuentes: ESA.

9 de marzo de 2013

Diez mujeres inventoras de la Historia


Pulse para ver el videoEl primer ebook se inventó en Ferrol

La enciclopedia mecánica de Ángela Ruiz Robles hoy está considerada como la auténtica precursora de las tabletas y ebooks. Esta maestra ferrolana quiso aligerar con su invento la mochila de los alumnos, además de hacer el aprendizaje más personalizado y divertido.

Este rudimentario libro electrónico, era capaz de iluminarse para leer en la oscuridad, emitir sonidos o hacer zoom sobre las letras o dibujos. Conceptos que hasta entonces, era impensable aplicar a un libro.


Pulse para ver el videoJosephine Cochrane inventa el lavavajilla
A Josephine Cochrane le gustaba dar numerosas cenas de lujo en su casa. Aunque era el servicio quien se ocupaba de fregar los platos, esta inventora consideró que la tarea les llevaba demasiado tiempo y que no trataban del todo bien su fina vajilla.

Así, inventó su propio aparato lavavajillas; una máquina de tracción manual que patentó y con la que ganó el máximo premio a la «mejor construcción mecánica» en la Exposición Universal de Chicago de 1893.

Pulse para ver el video
Hedy Lamarr fue actriz e ingeniera en Telecomunicaciones
Su impresionante físico le valió a Hedy Lamarr el apodo de «la mujer más bella de Europa», aunque su verdadero nombre era Hedwig Eva Maria Kiesler.

Esta austriaca tuvo una vida tan apasionante como sus películas: pasóinformación sobre los nazis al bando aliado, huyó de su marido e inventó un sistema de comunicaciones secretas basándose en la conmutación de frecuencias, la base del funcionamiento actual de lastecnologías Wi-fi y 3G.

Pulse para ver el video
Mary Dixon Kies fue la primera mujer en registrar una patente a su nombre, en EEUU
Kies fue la primera mujer que registró a su propio nombre un invento en la Oficina de Patentes y Marcas de EE.UU. Hasta entonces, lo más habitual era que los registros se pusieran a nombre de los maridos o un familiar varón.

Sus sombreros, de gran resistencia se utilizaban por las mujeres para trabajar en el campo por su durabilidad.

Pulse para ver el video
Beulah Louise Henry, inventora y fundadora de varias empresas
Más de un centenar de inventos de todo tipo y casi 50 patentes son los números que preceden a Beulah Louise Henry, apodada como la «señora Edison» por su frenética actividad creadora.

Entre ellos, se hicieron muy populares una heladera, las muñecas de ojos de colores, esponjas con jabón para niños y una máquina de escribir capaz de realizar cuatro copias de un documento.

Diez mujeres inventoras de la Historia
Bette Nesmith Graham, secretaria de dirección e inventora
Bette Nesmith Graham fue una mujer sobresaliente no sólo como inventora. Esta norteamericana alcanzó el reconocimiento profesional más alto para una mujer del momento; siendo secretaria de dirección también ejercía de madre soltera.

A pesar de la oposición inicial de sus jefes, continuó utilizando una mezcla con base de pintura blanca para corregir los errores de la máquina de escribir que enseguida se hizo muy popular entre sus compañeros.

Su empeño le llevó a explotar la marca Liquid Paper, que inicialmente se llamó «mistake out» (quita errores).

Diez mujeres inventoras de la Historia
Hélène Dutrieu, piloto e inventora
Dutrieu representa sin duda, el apoyo de una familia a las capacidades de la mujer y el gusto por el riesgo. Hija de un oficial del ejército belga, fue piloto de aviones, ciclista, conductora de ambulancias durante la guerra y titular de multitud de títulos y récords.

Patentó una rampa de salto y un loop utilizados en sus espectáculos de riesgo como cicilista.

Diez mujeres inventoras de la Historia
Kwolek, la química que sintetiza por primera vez el poliparafenileno tereftalamida
Su trabajo como química dio lugar al desarrollo de una fibra muy ligera y extraordinariamente resistente. Kwolek consigue sintentizar el Kevlar, utilizado hoy en la fabricación de chalecos antibalas, velas náuticas, neumáticos, cables submarinos o trajes ignífugos.

El Kevlar puede ser hasta cinco veces más resistente que el acero

Diez mujeres inventoras de la Historia
Grace Murray Hopper, militar y programadora
A Grace Murray Hopper pronto la puesieron el apodo de la «Asombrosa Grace» por sus logros en el campo de la programación y su impecable carrera militar.

Esta neoyorkina fue la primera programadora en manejar el revolucionario ordenador Mark I y participó de manera decisiva en el desarrollo del lenguaje COBOL, destinado a eliminar las incompatibilidades entre equipos en los primeros tiempos de la informática.

Paradojicamente, Hopper recibió en 1969 el título de «Hombre del año» en computación y actualmente se entrega un premio con su nombreconcedido por la Asociation of Computer Machinery (ACM).

Diez mujeres inventoras de la Historia
Marie Salomea Skłodowska Curie, química y física
Marie Salomea Sklodowska Curie, polaca de nacimiento (de ahí su homenaje al nombrar el Polonio) y nacionalizada francesa, representa el sacrificio y la constancia como método de trabajo.

Toda su vida estuvo ligada a la investigación en el campo de la radiactividad, con la identificación del Polonio (Po) y el Radio (Ra) como elementos químicos.

Obtuvo el Premio Nobel de Física en 1903, compartido con su marido Pierre y Henri Becquerel y, en 1910, el de Química, en solitario.

Tras la muerte de su marido por un atropello, asumió su cátedra en laUniversidad de París convirtiéndose en la primera mujer en dar clases en los 650 años de la institución.





Fuentes : http://www.abc.es/ciencia/20130308/abci-mujeres-inventoras-historia-201303071705_1.html