_____________________________________________

martes, 29 de noviembre de 2011

EXPERIMENTO CONTROLADO EN MARTE

Como el famoso capitulo de Outer Limits de 1964 ( Rumbo a lo desconocido ) , CONTROLLED EXPERIMENT, pero al reves, ahora somos nosotros los terricolas los que hacemos un experimento controlado en Marte y no los marcianos en la Tierra. Ciencia ficcion aparte, nos preguntamos:

¿Que hace tan particular a esta misión respecto a las otras en las que se ha embarcado la NASA?
En primer lugar estamos en presencia del rover más grande enviado a Marte, el Curiosity tiene un tamaño similar a un vehículo utilitario pequeño: 3 metros de longitud, 2,8 metros de ancho, 2,2 metros de alto y su brazo robotizado tiene una longitud de 2,1 metros. En tanto que sus seis ruedas tienen un diámetro de 50 centímetros y cada una cuenta con un motor eléctrico independiente.
Las dimensiones del rover se justifican por el hecho de que es el robot con mayor cantidad de instrumental destinado a realizar un acabado estudio la superficie del planeta rojo. De hecho cuenta con la capacidad de vaporizar piedras por medio de un láser y analizar su composición a varios metros de distancia.

La sonda MSL Curiosity tiene una masa al lanzamiento de 3893 kg y se divide en tres partes:
La etapa de crucero interplanetaria (539 kg)
La cápsula de entrada atmosférica y etapa de descenso (2.401 kg)
El rover Curiosity (899 kg)

El rover Curiosity cuenta con dos computadores redundantes responsables de su operación, ambos cuentan con un procesador BAE RAD 750 de 200 MHz (se basan en los PowerPC 750) con 250 MB de memoria RAM y 2 GB de memoria flash (Spirit y Opportunity contaban con un procesador RAD6000 de 20 MHz).

Dentro del instrumental con que cuenta el rover destacan:

Mastcam (Mast Camera): Dos cámaras independientes que opera como “los ojos” del rover. Cada una es de 2 Megapíxel con capacidad para grabar video en HD gracias al sensor CCD Kodak de 1.600 x 1.200 píxel y a su memoria flash de 8 MB.
La cámara ubicada al lado derecho cuenta con un teleobjetivo de 100 mm capaz de alcanzar una resolución de 7,4 cm por píxel a un kilómetro de distancia, mientras que la ubicada al lado izquierdo cuenta con una lente de 34 mm de focal con la que podrá obtener imágenes con una resolución de 22 cm a un km de distancia.

ChemCam (Chemistry and Camera): Uno de los instrumentos más interesantes consistente en un láser infrarrojo con la potencia necesaria para vaporizar rocas a siete metros de distancia. La composición del plasma resultante luego de la intervención del láser será analizado espectroscópicamente. Se encuentra ubicado sobre el Mastcam y cuenta con un telescopio de 110 mm y una cámara monocromática con un CCD de 1.024 x 1.024 píxel.

SAM (Sample Analysis at Mars): Instrumento con el que se intentará buscar compuestos relacionados con la presencia de vida en Marte y analizar el metano presente en el planeta. Las muestras obtenidas por el brazo serán depositadas en dos hornos de 40 W (alcanzan temperaturas de 1.000° C).

CheMin (Chemistry and Mineralogy): Instrumento encargado de analizar las muestras de polvo y roca obtenidas por el brazo robot por medio de difracción por rayos X y fluorescencia de rayos X. Se encuentra instalado en la parte frontal del rover y para acceder a él por medio de un embudo con tapa.

REMS (Rover Environmental Monitoring Stations): Instrumento encargado de monitorizar diariamente el tiempo en el planeta rojo. Cuenta con una serie de sensores que le permiten medir la velocidad del viento, la humedad, presión atmosférica y la temperatura ambiental

RAD (Radiation Assessment Detector): Encargado de medir la radiación ambiental en el entorno del rover. Su principal objetivo es obtener información que sirva para una futura misión tripulada a Marte.

DAN (Dynamic Albedo of Neutrons): Instrumento encargado de detectar agua en el subsuelo de Marte. Para ello medirá la dispersión de neutrones obtenidos desde un generador de neutrones ubicado en la parte derech del rover.

MARDI (Mars Descent Imager): Cámara responsable de la filmación -por vez primera- del aterrizaje de una sonda en Marte. Su lente gran angular cuenta con un CCD de 1.600 x 1.200 píxel con la capacidad de obtener hasta cuatro imágenes por segundo.

APXS (Alpha Particle X-Ray Spectrometer): Este espectrómetro se encuentra ubicado en el extremo del brazso robótico del Curiosity e incluye una pequeña cantidad de curio-244 radiactivo para generar partículas alfa y rayos X necesarios para llevar a cabo estudios espectrométricos de las rocas marcianas en contacto con el instrumento.

MAHLI (MArs Hand Lens Imager): Microscopio geológico responsable del estudio de las rocas marcianas. Cuenta con una cámara a color ubicada en el extremo del brazo robot y puede obtener imágenes en alta resolución.

Debido a su masa -el rover pesa 899 kg- los ingenieros de la NASA debieron construir el mayor escudo térmico, junto con el paracaídas más grande utilizado hasta ahora en una misión en Marte. De igual manera y con la finalidad de acceder a las zonas más interesantes desde el punto de vista geológico y astrobiológico, se diseñó un novedoso sistema encargado de posar al rover en el lugar elegido por los científicos a cargo del proyecto. Dicho sistema será el responsable de frenar la velocidad de caída del rover y hacer descender al rover como si se tratara de una grúa (por eso se le donominó como “Sky Crane”).

La sonda tardará 255 días en llegar a Marte y si todo sale tal cual como esta programado, en Agosto de 2012 el mundo será testigo del inicio de una de las misiones más espectaculares diseñadas por el ser humano para la exploración de otro planeta.

Solamente los que arriesgan llegar demasiado lejos son los que descubren hasta dónde pueden llegar. No debemos dejar de explorar. Y al final de nuestras exploraciones llegaremos al lugar del que partimos, y lo conoceremos por primera vez. Thomas Stearns Eliot

"End of transmission"


video

viernes, 25 de noviembre de 2011

LA CURIOSIDAD HUMANA PARTE A MARTE OTRA VEZ


Despues de tantos preparativos, la NASA lanza esta sábado el robot 'Curiosity' que explorará Marte buscando indicios de vida. La misión, bautizada como 'Mars Science Laboratory', comienza con el lanzamiento el 26 de noviembre desde el Kennedy Space Center ubicado en Cabo Cañaveral (Florida). 'Curiosity' viajará a bordo de un cohete Atlas V con el objetivo de que se pose sobre la superficie del planeta rojo.

Este rover es la tercera generación de vehículos todo terreno que la NASA envía a Marte y está diseñado para explorar la superficie del planeta durante, al menos, un año marciano, que supone 686 días terrestres. La intención de la misión es realizar sobre el terreno análisis de tipo físico, químico y meteorológico. Según ha explicado la agencia estadounidense, con ello se pretende identificar trazas biológicas e interpretar procesos geológicos y climáticos.

Para ello cuentan con una estación meteorológica que, según han asegurado, 'podrá aportar muchos datos importantes para poder determinar la posible existencia de agua líquida en Marte y el potencial biológico de la zona'.
Así, han apuntado que las medidas que se recojan están estrechamente relacionadas con tres de las metas de la misión 'Mars Science Laboratory': verificar el potencial biológico de la zona explorada, investigar los procesos planetarios que ocurren en su superficie y que influyen en su habitabilidad, y caracterizar los niveles de radiación que llegan a la superficie de Marte.
La estacion metereologica , junto con los demás instrumentos de 'Curiosity', ayudará a conocer las condiciones que se dan en la superficie y en los primeros centímetros del subsuelo', han apuntado.

Del mismo modo, han explicado que analizando la temperatura, la posibilidad de existencia de agua líquida y el nivel de radiación ultravioleta, habrá datos para evaluar si puede desarrollarse algún tipo de microorganismo en ese ambiente.
Por su parte, la antena de alta ganancia será la encargada de hacer llegar las comunicaciones del rover cuando éste se comunique con la Tierra desde la superficie de Marte. Según ha apuntado Astrium, al ser una antena orientable puede moverse para apuntar directamente a la Tierra, evitando que sea 'Curiosity' el que tenga que cambiar su orientación y ahorrando energía.

La NASA ha señalado que el rover se posará en el cráter Gale, de unos 150 kilómetros de diámetro, con un montículo central de cinco kilómetros de altura. Se ha seleccionado esta situación porque se cree que en él podrá descubrirse gran parte de la historia geológica de Marte, además de que, según los investigadores, presenta huellas que parecen indicar que pudo haber sido un lago.

'Curiosity', al contrario que sus antecesores, no llegará al suelo de Marte protegido por airbags, sino que se descolgará desde el vehículo que lo transportará desde la Tierra. El robot pesa cerca de 1.000 kilogramos (tiene un tamaño similar al de un coche pequeño), y está equipado con seis ruedas. Su velocidad máxima será de 90 metros por hora.

En cuanto a su actividad, el vehículo deberá enviar diariamente los datos que recoja a los satélites que orbitan Marte, que los reenviarán a la Tierra. Las antenas de la Red de Espacio Profundo de la NASA, recogerán las señales y las enviarán a Pasadena (California) desde donde se distribuirán a los diferentes equipos en España, Estados Unidos, Rusia, Canadá, Francia y Alemania.

'Tras recibir la información, se analizarán los datos y se decidirá en conjunto qué hará 'Curiosity' al día siguiente, por lo que las imágenes, los análisis de las muestras, los datos meteorológicos y los de radiación, deben estudiarse todos los días para sacar el máximo rendimiento a toda esa información y poder planificar de la mejor manera posible el trabajo del robot'.

Nasa T.V. transmitira on line en vivo la partida. Buen despegue y feliz destino.

"Prefiero que mi mente se abra movida por la curiosidad a que se cierre movida por la convicción". Gerry Spence


"End of transmission"


video

jueves, 24 de noviembre de 2011

DESEQUILIBRIO MATERIA- ANTIMATERIA


La teoría cuántica de campos relativista predice que a cada partícula le corresponde una antipartícula. Estas partículas tienen la misma masa, pero la carga opuesta. Si las dos entran en contacto se aniquilan y la materia y la antimateria se transforman completamente en energía. Para que exista materia y por lo tanto nosotros, tiene que haber pues un exceso de materia frente a antimateria.

En las primeras millonésimas de milisegundos después del Big Bang, el Universo estaba extremadamente caliente y estos pares de partículas y antipartículas se aniquilaban continuamente, pero también se creaban, teniendo que dar lugar a partes iguales de materia y antimateria.


Numerosas y diferentes observaciones han convencido a los astrofísicos de que no hay antimateria existente en el Universo que haya sobrevivido de la Gran Explosión. Por lo tanto tuvo que haber existido cierto desequilibrio. En concreto, por cada mil millones de pares partícula – antipartícula tuvo que haber existido una partícula sin pareja.
Aunque parezca una pequeñisima cantidad, no es explicable mediante una fluctuación azarosa.


Un primer avance en la explicación de esta asimetría se consiguió observando que había dos tipos del mesón (partícula subatómica compuesta de un quark y un antiquark) llamado Kaón neutro, los cuales se desintegran de forma diferente. Uno se desintegra más rápidamente que el otro y lo que da lugar es a dos piones, mientras que el otro tipo, el de mayor tiempo de vida se desintegra en tres piones. Piones son también mesones, de hecho los más ligeros.


En una de las cuatro interacciones fundamentales se tiene que dar la asimetría entre la materia y la antimateria y por lo que se sabe en la única en donde puede ocurrir es es en la interacción nuclear débil.
Ésta es la responsable de la desintegración del Kaón neutro y si existiese una perfecta simetría entre materia y antimateria, la desintegración con el mayor tiempo de vida nunca podría dar lugar a dos piones. Pero esto es justamente lo que se encontró en los años sesenta. Sin embargo este descubrimiento sorprendente y espectacular no es suficiente para explicar la asimetría existente en el Universo.
Una línea de investigación que trata de explicar esto se centra en analizar otro tipo de partícula subátomica,llamada “mesón B”.


Uno de los experimentos del Gran Colisionador de Hadrones de Ginebra, el LHC, acaba de aportar nuevos detalles que podrían explicar esa victoria. Se trata del LHCb, concebido ex profeso para estudiar un fenómeno conocido como "violación CP" y que indica el ligero desequilibrio entre partículas y antipartículas que hizo posible el universo conocido. Los responsables del experimento han encontrado un desequilibrio entre ambas mucho mayor del que predice el modelo teórico más aceptado.


Los resultados son provisionales y podrían deberse a un fallo estadístico (el margen de error es de un 0,5%). Si son ciertos apuntarían a que el modelo de física de partículas vigente tiene una grieta por la que podría desinflarse, o crecer para aceptar en su seno nuevas partículas responsables del fenómeno. "Nuestros resultados pueden ayudar a explicar la diferencia de comportamiento que ha hecho que haya más materia que antimateria", explicó ayer a este diario Chris Parkes, físico del LHCb.


En el acelerador de Ginebra se hacen chocar protones para descomponerlos en partículas elementales, los componentes más pequeños del átomo. Tras el Big Bang, comenzaron a unirse y componer el universo tal cual es.
El comportamiento de estas partículas lo describe el modelo estándar, una teoría que "funciona muy bien" pero que "no permite explicar del todo por qué el universo es como es", resume Eugeni Grauges, físico de la Universidad de Barcelona que dirige un equipo español en el LHCb. El modelo predice un desequilibrio entre materia y antimateria del 0,1%, que, en 13.700 millones de años, no habría generado tanta materia como la que existe.


Tras analizar las colisiones acumuladas en la mitad de 2011, Grauges, Parkes y sus colegas se han topado con un desequilibrio de un 0,8%. Se trata de un resultado "sorprendente" que, sin embargo, debe ser confirmado. "No podemos decir que lo hayamos probado", advierte Parkes, pero sí "establecer que el fenómeno existe", añade Grauges. "Ahora habrá que ver si encaja con el modelo actual o no", concluye.

“No es un resultado muy espectacular”, opina Alberto Ruiz, investigador del LHC y del Tevatron de EEUU. Este último acelerador encontró un desequilibrio del 0,4%, pero el margen de error era similar al del estudio actual, que en física no basta para poder proclamar un “descubrimiento”.
Aunque por ahora es “pura especulación”, el desequilibrio observado podría deberse a partículas no observadas hasta ahora, pero sí predichas por la teoría de la supersimetría, dice Parkes

"Un sistema ordenado comienza a evolucionar caóticamente, a menudo es posible encontrar una razón específica del mismo: Pequeñas variaciones iniciales generan grandes cambios."


"End of transmission"


video

lunes, 21 de noviembre de 2011

NEUTRINOS WARP APARECEN OTRA VEZ


Los científicos de la colaboración OPERA han vuelto a confirmar desde el Laboratorio Nacional del Gran Sasso (Italia), con un haz de neutrinos establecido por el CERN, las mediciones que indican que estas partículas viajan más rápido que la luz. Las nuevas pruebas parecen excluir una parte de potenciales efectos sistemáticos que podrían haber afectado a la medida original.

El 17 de noviembre la colaboración OPERA ha presentado el documento sobre la medición de la velocidad del neutrino para su publicación en el Journal of High Energy Physics, y en paralelo en el repositorio digital ArXiv. El documento está en línea desde el 18 de noviembre.
El tiempo transcurrido desde el seminario celebrado en el CERN el dia 23 de septiembre, donde la colaboración hizo públicos sus primeros resultados sobre la velocidad del neutrino, ha sido utilizado para comprobar los principales aspectos del análisis de datos y, sobre todo, para realizar nuevas pruebas con el haz de neutrinos establecido por el CERN.
Este nuevo haz se caracteriza por una mejor definición del momento de extracción de los protones que lo originan, al disponer de paquetes de partículas de unos 3 nanosegundos de duración separados por hasta 524 nanosegundos. De esta manera, en comparación con la anterior medición, los haces de neutrinos que detecta OPERA son más estrechos y espaciados entre sí.
Esto permite hacer una medición más precisa de su velocidad a costa de obtener una menor intensidad del haz: solo 20 eventos de neutrinos han sido recogidos por OPERA en esta nueva prueba, frente a los 15.000 sucesos analizados en la anterior medida.

"Una medida tan delicada y que conlleva implicaciones tan profundas en la física requiere un extraordinario control", dijo Fernando Ferroni, presidente del Instituto Italiano de Física Nuclear (INFN), que opera el laboratorio de Gran Sasso.
“El experimento OPERA, gracias a un haz de neutrinos especialmente adaptado del CERN, ha hecho una prueba importante de la consistencia de sus resultados. El resultado positivo de la prueba nos hace tener más confianza en el resultado, aunque la última palabra la tendrán mediciones análogas en otras pruebas”.


"Uno de los eventuales errores sistemáticos está descartado, pero la búsqueda no ha terminado. Hay más pruebas de errores sistemáticos en discusión, uno de ellos podría ser tomar una referencia de sincronización de tiempo en el CERN y Gran Sasso independientemente del GPS, utilizando posiblemente una fibra”, dijo Jacques Martino, Director del Instituto Nacional de Física Nuclear y de Partículas (IN2P3) del CNRS francés.
Para el CERN, las nuevas medidas no cambian la conclusión inicial de OPERA. Sin embargo, la anomalía observada en el tiempo de los neutrinos en vuelo desde el CERN hasta Gran Sasso necesita más controles y mediciones independientes antes de que pueda ser refutada o confirmada.


"Un dato empírico es relevante para una teoría o hipótesis si y solamente si constituye evidencia favorable o desfavorable para ella, esto es, a saber, si la confirma o la refuta". Principio de relevancia empirica


"End of transmission"

video

viernes, 18 de noviembre de 2011

ESTRELLA DE MATERIA OSCURA (SOL NEGRO)

Cuando veia la serie Cosmos 1999 ( Space 1999 ), serie de culto para todos los que nos gusta la ciencia ficcion, me impresiono el capitulo " El sol negro " (Black Sun),
y pensaba si podia ser posible que existiera algo de una materia desconocida.

Pues bien, las primeras estrellas del universo pueden haber sido muy diferentes de las estrellas que vemos en la actualidad, aunque pueden tener pistas para comprender algunas de las misteriosas características del universo.
Estas “estrellas oscuras”, podrían crecer hasta ser mucho más grandes que las estrellas modernas, y podrían estar alimentadas por partículas de materia oscura que se aniquilan en su interior, en lugar de por fusión nuclear. En los inicios del universo, las estrellas oscuras habrían emitido luz visible como el Sol, pero actualmente su luz estaría desplazada al rojo, en el rango infrarrojo para cuando nos alcanzase, y por tanto las estrellas oscuras serían invisibles a simple vista.
Durante los dos últimos años, los investigadores han estudiado más en detalle las propiedades de las estrellas oscuras, además de cómo podrían estas inusuales estrellas ayudar a los científicos a comprender mejor la materia oscura, agujeros negros, y otras características astronómicas.

En un nuevo estudio, el grupo de científicos que originalmente teorizó las estrellas oscuras ha presentado una revisión de su investigación sobre la materia y predice futuras áreas de investigación. Katherine Freese de la Universidad de Michigan; Paolo Gondolo de la Universidad de Utah; Peter Bodenheimer de la Universidad de California en Santa Cruz; y Douglas Spolyar, actualmente en Fermilab, han publicado sus resultados en un reciente ejemplar de New Journal of Physics.

Tal y como explican los científicos, las estrellas oscuras representarían una nueva fase de la evolución estelar – con la primera fase teniendo lugar apenas 200 millones de años tras el Big Bang. En esa época, la densidad de materia oscura en el joven universo era mayor que la actual, y las primeras estrellas se predice que se hayan formado en el centro de halos de materia oscura (los cuales son precursores de las galaxias) en oposición a las estrellas actuales que están dispersas por los bordes de una galaxia. De acuerdo con la teoría, estas jóvenes estrellas crecen más acretando masa de sus alrededores, acumulando materia oscura junto con el gas de su alrededor. Dentro de estas estrellas, las partículas masivas de interacción débil (WIMPs), un candidato para la materia oscura, podrían acumularse. Dado que las WIMPs pueden ser sus propias antipartículas, podrían aniquilarse para producir una fuente de calor.

Si la densidad de materia oscura fuese lo bastante alta, este calor dominaría sobre otros mecanismos de calentamiento (o enfriamiento), tales como la fusión nuclear. Comparado con la fusión, la aniquilación de WIMPs es una fuente de energía muy eficiente, por lo que sólo se requiere una pequeña cantidad de materia oscura para alimentar la estrella.
“Las estrellas oscuras son una consecuencia natural de las WIMPs como partículas de materia oscura… ¡aunque nos llevó un tiempo unir todos los ingredientes necesarios para darnos cuenta de esto!”, dice Freese. “En el momento en que propusimos estos objetos en 2007, no nos dimos cuenta de que son realmente estrellas en el sentido de ser objetos hidrostáticamente estables que brillan y producen luz visible.

Ahora que hemos tenido éxito al encontrar la estructura estelar de estos objetos, comprendemos sus propiedades: son enormes objetos hinchados (como soles que se extienden más allá del radio de la Tierra) y la luz que producen se parece mucho a la procedente del Sol. ¡Pero crecen hasta convertirse en miles o incluso millones de veces más masivos! Estos son nuestros nuevos resultados desde que empezamos a investigar en este área por primera vez”.
Como explicaron los científicos, las estrellas modernas finalmente agotan su hidrógeno y transicionan a otro tipo de estrellas en el diagrama de la secuencia principal. Por otra parte, las estrellas oscuras pueden seguir creciendo de forma indefinida, siempre que sigan acretando materia oscura de sus alrededores.

Estas estrellas podrían potencialmente crecer hasta ser decenas de miles de veces más grandes que el Sol. No obstante, la mayor parte de estrellas oscuras probablemente se apartarían finalmente de sus posiciones en los centros de los halos de materia oscura. Su combustible de materia oscura se agotaría, por lo que las estrellas empezarían a colapsar y finalmente estarían alimentadas por la fusión de los átomos de hidrógeno normal de las estrellas, y por fin colapsar en agujeros negros. Los científicos calcularon que las estrellas oscuras tienen un tiempo de vida de al menos un millón de años, y tal vez miles de millones; podrían aún estar por aquí.


Los científicos predicen que debería ser posible detectar estrellas oscuras, ya sea detectando su luz con telescopios de nueva generación, o usando telescopios de neutrinos para medir los neutrinos procedentes de las estrellas oscuras. En comparación con las estrellas de secuencia principal, las estrellas oscuras que agotan su combustible de materia oscura y empiezan a usar fusión serían mucho más grandes, frías e “hinchadas”. Y aunque las estrellas oscuras finalmente se conviertan en agujeros negros, las primeras estrellas en la visión tradicional (sin materia oscura) se convierten en supernovas, dando a los investigadores un punto de comparación. “Estas supernovas pueblan el universo con una abundancia de elementos en proporciones muy precisas (la proporción de elementos pares a impares es muy precisa)”, explica Freese. “No obstante, predecimos que esto no sucede en las estrellas oscuras.

Por tanto, esta distinción proporciona una prueba medible de los dos escenarios distintos. Esta abundancia de elementos debería medirse en los próximos cinco años y entonces lo sabremos”.


Midiendo las propiedades de las estrellas oscuras con futuros instrumentos, los científicos podrían descubrir propiedades detalladas de la materia oscura. Dado que distintas partículas de materia oscura producen distintos productos de aniquilación, las medidas podrían revelar información sobre las propiedades de la materia oscura, tales como su masa, mecanismos de aniquilación, etc. Freese también planea investigar si las estrellas oscuras empezaron a hacerse lo bastante grandes para producir los gigantescos agujeros negros que actualmente son inexplicables. “Hasta el momento hemos formado estrellas oscuras de 1000 veces la masa del Sol”, comenta. “Pero si siguen acumulando materia oscura capturándola de sus alrededores, pueden terminar siendo mucho más grandes: posiblemente incluso un millón de veces más masivas que el Sol. Este es mi objetivo inmediato en lo que respecta a empresas de investigación.

Tales objetos supermasivos se propusieron por primera vez en la década de 1960 por Fowler y Hoyle, pero nadie sabía cómo crearlos. Si esto es correcto, ciertamente ayudaría a explicar los enormes agujeros negros que vemos hoy en el universo y que nadie sabe cómo explicar: cuando las estrellas supermasivas mueren, se conviertene en agujeros negros. Existen agujeros negros de miles de millones de masas solares en, básicamente, el mismo momento que se formaron las primeras galaxias, así como en los centros de las mismas”.

"No importa lo rápido que viaje la luz, siempre se encuentra con que la oscuridad ha llegado antes y la está esperando".Terry Pratchett

"End of transmission"

video

jueves, 17 de noviembre de 2011

RODEADOS DE MATERIA OSCURA

La materia oscura es cinco veces más abundante en el universo que la materia normal. Pero continúa siendo un enigma debido a que es invisible y casi siempre pasa a través de la materia común. Los astrónomos sólo han descubierto algo sobre la materia oscura deduciendo su presencia a partir de la gravedad que ejerce , que mantiene a las galaxias girando en lugar de desmembrándose. En lugar de observar en galaxias lejanas para estudiarla, los astrónomos podrían querer mirar más cerca de casa: la materia oscura podría estar ejerciendo efectos medibles en nuestro propio Sistema Solar.

Específicamente, los investigadores deberían mirar a la Tierra y la Luna, insiste el físico teórico Stephen Adler del Instituto de Estudios Avanzados en Princeton, Nueva Jersey. Si la masa de la Tierra y la Luna cuando se miden juntas pareciera mayor que cuando se miden sus masas de forma separada, explica, la diferencia podría atribuirse a un halo de materia oscura intermedio.
Adler alcanzó esta conclusión en parte tras examinar estudios que medían la masa de la Luna con orbitadores lunares y la de la Tierra con el satélite de estudios geodéticos LAGEOS , esfera que reflejan rayos láser que han estado en órbita durante muchos años. Los lásers disparados desde los satélites revelan el radio de la órbita de cada satélite y cuánto tarda en completar dicha órbita. A partir de tales medidas, los científicos pueden calcular el tirón gravitatorio sobre los satélites y, por tanto, la cantidad de masa que ejerce dicho tirón.

Lo siguiente que hizo Adler fue examinar investigaciones que calculaban la distancia de la Tierra a la Luna con lásers reflejándose en los espejos lunares colocados por las misiones Apolo. Si la Tierra ejerce un tirón inusualmente grande sobre la Luna, la cual está aproximadamente a 384.000 kilómetros, más que sobre los satélites de LAGEOS, aproximadamente a 12.300 kilómetros, el tirón añadido podrían atribuirse al halo de materia oscura entre la Luna y los satélites artificiales. Basándose en los datos actuales, Adler estima a que al menos 24 billones de toneladas de particulas de materia oscura yacen entre la Tierra y la Luna.

No hay actualmente partículas conocidas que puedan ser candidatos a materia oscura. Sin embargo, muchas extensiones propuestas del modelo standard (modelo global que explica de manera unificada la naturaleza y características de todas las partículas conocidas, y que es el que hasta ahora mayores resultados a producido) predicen una partícula estable (o de vida suficientemente larga). La clave se convierte entonces en predecir el valor de la densidad de materia oscura para conocer su masa y cualidades imposibles de predecir.

Si la partícula es su propia antipartícula o hay partículas y antipartículas presentes en igual número (dependiendo de su naturaleza la partículas pueden presentarse de dos modos: para una partícula dada puede existir una partícula complementaria o antipartícula con la cual puede anularse o aniquilarse, o por el contrario ella misma es su propia antipartícula con lo que sólo puede aniquilarse con partículas de su propia especie) y estas partículas estuviesen en equilibrio térmico con la radiación (es decir, a la misma temperatura) al menos hasta que se conviertan en no relativistas debido a efectos de frenado, entonces su abundancia se determina por
efectos secundarios procedentes de su aniquilación.

Entonces uno encuentra que el valor necesario para que la densidad de materia oscura sea la que necesitamos es apreciablemente próximo al que se podría esperar para una partícula masiva de interacción débil, partículas que designamos wimp con una masa de 100 GeV.
Si la partícula de materia oscura no es su propia antipartícula, y el número de partículas menos el de antipartículas se conserva, entonces una asimetría inicial en las abundancias de partículas y antipartículas se preservará, y puede dar abundancias mucho mayores que las predichas para el caso anterior.

Si las partículas de materia oscura no estuviesen nunca en equilibrio térmico con la radiación, entonces su abundancia actual debe ser calculada de cualquier otra forma, y en general dependerá en la condición inicial precisa que se presuponga en el modelo de formación de galaxias. Los dos candidatos a materia oscura fría mejor conocidos y más estudiados son el
neutralino y el axión.

El neutralino es una predicción de las extensiones supersimétricas del modelo estándar: es una extensión del neutrino, el cual tal y como se conoce actualmente no verifica una de las simetrías que aparecen en la naturaleza de la mayoría de las partículas; teóricamente se predice que es posible la existencia de una partícula de propiedades idénticas a las del neutrino que además verifique dicha simetría. El neutralino se clasifica como un wimp, con una masa teórica esperada en el intervalo de las decenas a las centenas de GeV.

El axión es predicho por extensiones del modelo estándar que resuelven otros de los problemas de violación de simetrías en las interacciones fuertes entre partículas. No tiene equivalente o conexión con ninguna partícula actualmente conocida al contrario de lo que le ocurre al neutralino (que está relacionado con los neutrinos). Su masa debe ser aproximadamente 10-5 eV, si es que tiene que ser un componente significativo de la materia oscura. Los axiones pueden ocurrir en el universo temprano en la forma de condensación de Bose, que permite que una gran cantidad de partículas estén "condensadas" ocupando todas el mismo espacio, la cual nunca entra en equilibrio térmico con la radiación. Estos axiones son siempre no relativistas, a pesar de su pequeña masa.

Hay prospecciones para la detección experimental directa de ambos candidatos (y también otros candidatos a wimp). Los wimps se dispersarán al colisionar con núcleos a una velocidad calculable, produciendo retrocesos nucleares observables. Esta técnica ha sido usada para mostrar que toda la materia oscura no puede consistir de neutrino masivos o neutrinos predichos por modelos supersimétricos (modelos basados en extensión del modelo estándar con verificación de todas las simetrías) con masa en el intervalo de los 10 GeV a los 4 TeV.
El neutralino es más difícil de detectar porque su dispersión por colisión con los núcleos es considerablemente más pequeña.

El axión puede ser detectado por una conversión de axión a fotón en un campo magnético inhomogéneo, y los límites en la relación axión-fotón permitida han sido ya establecidos teóricamente, los cuales no excluyen el valor que teóricamente es más favorable para su masa.
Ambos tipos de experimentos de detección están actualmente en marcha.
Candidatos a wimp pueden dejar señales indirectas también por medio de aniquilaciones que ocurren actualmente en partículas que pueden ser detectadas como rayos cósmicos. La posibilidad más prometedora viene del hecho de que los wimp se concentran en el centro del Sol y de la Tierra, así que si se incrementara enormemente su tasa de aniquilación, produciendo así neutrinos de alta energía que pueden escapar y llegar a la superficie de la Tierra en número potencialmente observable.

"Poca observación y muchas teorías llevan al error. Mucha observación y pocas teorías llevan a la verdad".


"End of transmission"


video

viernes, 11 de noviembre de 2011

MARTE ES UN PROBLEMA PARA RUSIA

Los ingenieros rusos intentan resolver el problema surgido en su sonda espacial interplanetaria Phobos-Grunt, que fue lanzada al espacio el martes por la noche con destino a Marte y que se quedó atrapada en órbita terrestre al no encenderse los motores que debían ponerla en la trayectoria correcta. La sonda se quedó en una órbita elíptica que se aleja de la Tierra hasta 347 kilómetros y se acerca hasta 207 kilómetros.
Los responsables de control del artefacto, de casi 12 toneladas (incluido el combustible) tienen toda su esperanza puesta en la reprogramación de los sistemas de a bordo enviándoles las órdenes pertinentes para lograr el encendido de los motores, aunque reconocen que la situación es muy complicada.

Su plazo de actuación es corto: si no tienen éxito, la Phobos-Grunt podría tardar hasta un par de semanas en caer a la Tierra de nuevo, pero en tres días habrá descendido tanto como para que resultase imposible iniciar el viaje a Marte con el combustible que lleva.

El lanzamiento se realizó sin problemas a última hora del martes, con un cohete Zenit, desde la base de Baikonur (Kazajstán). Diez minutos más tarde, la Phobos-Grunt se separó correctamente del cohete, quedándose en la órbita de 347 por 207 kilómetros, según informa Russianspaceweb.com.
El plan era que desde esa órbita de aparcamiento temporal encendiera los motores (antes de cumplir la segunda vuelta completa al planeta) para situarse en una órbita más alta, de 250 por 4.170 kilómetros, a partir de la cual, con un segundo encendido unas dos horas después, tenía que iniciar su viaje a Marte alejándose de la Tierra. Estos dos primeros encendidos de la unidad de propulsión tenían que ser automáticos, preprogramados, y luego habría un tercero que se ordenaría a la sonda una vez determinadas con precisión sus coordenadas. Al final de estas maniobras, la Phobos-Grunt se habría desprendido de los depósitos de combustible consumido.

Los dos primeros encendidos no se produjeron y las autoridades rusas guardaron silencio acerca del fallo durante toda la noche. Sólo a primera hora de la mañana del miércoles reconocieron el problema. "Hemos tenido una noche difícil, no pudimos localizar la sonda durante mucho tiempo, pero ahora conocemos sus coordenadas", declaró Vladimir Popovnik, director de la agencia espacial rusa Roscosmos. Mientras tanto, según Russianspaceweb.com, una antena estadounidense captó las señales de la Phobos-Grunt en órbita, que estaría emitiendo en todas la frecuencias a la vez, lo que indicaría claramente que tenía problemas.

Los expertos rusos, creen que en las primeras horas tras el lanzamiento, la sonda no logró orientarse debidamente y no habría desplegado sus paneles solares -además de no encender los motores- lo que suponía un riesgo añadido porque no se estarían cargando las baterías y el tiempo de actuación se reducía. Finalmente, las baterías empezaron a cargarse, según los responsables de control de la misión, lo que indica que se desplegaron los paneles. Con ese escenario, los ingenieros contaban con tres días para recargar los programas informáticos en los ordenadores de a bordo para empezar a ejecutar debidamente la secuencia de órdenes, incluido el encendido de motores.

La misión Phobos-Grunt, desarrollada por el Instituto Lavochkin, es arriesgada y se ha gestado en medio de incertidumbres, escaso presupuesto, retrasos y dificultades técnicas (incluido el cambio de cohete de un Soyuz a un Zenit debido al exceso de peso). El plan arrancó hace 15 años, a raíz de la pérdida de la sonda marciana Mars 96, en 1996, y retomando opciones de ingeniería de otras dos misiones anteriores que también se perdieron, la Phobos-1 y la Phobos-2, lanzadas al espacio en 1988.

Sin una trayectoria de desarrollo paulatino de ingeniería, como está haciendo la NASA en la exploración de Marte desde aproximadamente las mismas fechas (EE UU ha lanzado a Marte, 10 artefactos y ha perdido dos desde 1996), Rusia se embarcó en un proyecto extremadamente complejo lleno de tecnologías nuevas o no suficientemente ensayadas en esa misión marciana, la primera en 15 años.

Según el plan, la Phobos-Grunt tendría que llegar a Marte en Octubre del año que viene y frenar, encendiendo su unidad principal de propulsión por última vez, para colocarse en una órbita muy elíptica del planeta rojo (800 por 80.000 kilómetros). Después de soltar la pequeña sonda china que lleva para ponerse en órbita allí y tomar datos científicos, el cuerpo principal del vehículo ruso empezaría su aproximación a la luna Fobos, siguiendo una trayectoria en espiral. En ese tiempo, con los datos e imágenes enviados a la Tierra, se elegiría un lugar apropiado para el descenso. En Febrero de 2013, comenzaría la maniobra de caída casi vertical al suelo de esa luna marciana, con la ayuda de un altímetro y un radar a bordo para hacer la aproximación.

El módulo tendría que posarse (apretándose contra la superficie de Fobos, dado que la escasa gravedad allí no lo sujetaría) en un lugar plano, sin rocas y que permitiera una posición perfectamente horizontal del artefacto. Además de tomar datos del lugar y enviar fotos, un par de brazos articulados recogerían muestras del suelo en el lugar y los meterían en una parte de la sonda que luego, soltándose unos muelles, despegaría de Fobos para dirigirse a la Tierra, mientras que el resto del artefacto se quedaría en aquella luna tomando datos.

Al regresar a nuestro planeta, se desprendería una cápsula con las muestras que caería en la estepa de Kazajstan, en agosto de 2014. Sin sistemas activos de aterrizaje ni radioseñales, los expertos rusos tendrían que vigilar con radar y telescopios el vehículo para localizarlo en su caída a través de la atmósfera y recogerlo en el suelo.

Pero todas esas complejas maniobras se habrán quedado en meros planes si la Phobos-Grunt no logra en los próximos días arrancar y alejarse de la Tierra en dirección a Marte, si no es asi Rusia se preguntara porque Marte le es tan esquivo.

"De qué sirve una causa sino se cuenta con un planeta tolerable donde situarla".

"End of transmission"


video

miércoles, 9 de noviembre de 2011

LA CASA BLANCA NIEGA A E.T.

"El Gobierno de los Estados Unidos no tiene evidencia alguna de que exista vida fuera de nuestro planeta, o de que una presencia extraterrestre haya contactado o conectado con algún miembro de la raza humana. Además, no existe información creíble que sugiera que ninguna prueba haya sido ocultada a la opinión pública".

Esta es la respuesta oficial de la administración de Barak Obama a la petición de más de 17.000 personas para que el gobierno norteamericano dijera la verdad sobre sus supuestas relaciones con alguna civilización alienígena.
La Casa Blanca se ha visto obligada a responder a los ciudadanos para no echar por tierra una de sus más prometedoras campañas de imagen: un sistema basado en internet por el que cualquier ciudadano puede hacerle una pregunta al presidente Obama.
La iniciativa se llama Nosotros y el Pueblo. Cualquiera, desde una página web especialmente habilitada por la Casa Blanca, puede plantear de forma directa una cuestión al presidente. Obama se compromete a responder a las preguntas que reúnan un determinado número de firmas. El sistema funciona desde principios de septiembre, y entonces bastaba con 5.000 firmas para asegurar una respuesta presidencial. Sin embargo, el número de firmas necesarias ha ido aumentando y hoy es de 25.000.

La incómoda petición para que la Casa Blanca “admita que el Gobierno de EE UU está en contacto con alienígenas desde hace tiempo” fue presentada el 22 de septiembre, y ha reunido ya más de 17.000 firmas, más que suficientes en aquél momento para obligar que se produjera una respuesta oficial.
Una respuesta que acaba de producirse. Bajo el título de "Buscando a ET, pero sin pruebas todavía", el comunicado oficial va firmado por Phil Larson, el asesor de Política Científica y Tecnológica de Obama, y niega tajantemente una supuesta relación encubierta con extraterrestres del gobierno de los Estados Unidos.

"Sin embargo - dice también el escrito- eso no significa que el asunto de la vida fuera de nuestro planeta no se discuta o investigue. De hecho, existen varios proyectos en marcha para conseguir el objetivo de comprender si la vida puede existir fuera de la Tierra".
A modo de ejemplo, el comunicado cita tres proyectos diferentes: SETI, que intenta captar señales de otras civilizaciones; Kepler, el telescopio espacial especializado en buscar planetas similares a la Tierra; y la misión Mars Science Laboratory, que se lanzará este mismo mes a Marte y uno de cuyos objetivos es volver a buscar vida en el Planeta Rojo.

"La imposibilidad en que me encuentro de probar que E.T. no existe, me prueba su existencia".

"End of transmission"


video

lunes, 7 de noviembre de 2011

LUCES DE CIUDADES ALIENIGENAS

Hace algunos dias se informo como la NASA estaba trabajando en el "Rayo Tractor", famosa idea de la serie Star Trek, ahora parece que otro invento de la ciencia ficcion de esta misma serie, " Los sensores de largo alcance " que tanto usaba Spock en la serie analizando planetas en busqueda de vida , tambien esto esta hoy en la mira de la ciencia.

Un par de astrofísicos acaba de exponer lo que parece un camino no pensado y sorprendente para hallar civilizaciones extraterrestres: por las luces de las ciudades en las que habitan. Su hipótesis quedó plasmada en un artículo que presentaron al Journal Astrobiology.
Avi Loeb, del Harvard-Smithsonian Center for Astrophysics y Edwin Turner de Princeton University consideran, de acuerdo con sus cálculos que esa observación es posible. Bueno, por métodos indirectos.
La búsqueda de ciudades extraterrestres sería una gran apuesta, pero no requiere recursos extras. Y si tenemos éxito, cambiaría la percepción de nuestro lugar en el universo”, dijo Loeb.
Como otros métodos Seti (Search for Extra Terrestrial Intelligence) los dos científicos asumen que los alienígenas usan tecnologías tipo Tierra, algo que no resulta alocado porque cualquier vida inteligente que evolucione bajo la luz de su estrella más cercana es probable que tenga iluminación artificial que enciende durante las horas de oscuridad.

¿Pero sí es fácil observar tales luces? Con absoluta seguridad, tales luces tienen que distinguirse ante el brillo de la estrella paterna. Por eso Loeb y Turner sugieren mirar los cambios en la luz del exoplaneta mientras gira alrededor de su estrella.
A medida que el planeta orbita, pasa a través de fases similares a las de la Luna. Cuando está en la fase oscura, desde la Tierra podría detectarse más luz artificial del lado oscuro que la reflejada por la fase donde es de día. Así, el flujo total de un planeta con luces citadinas variaría de una forma que podría ser medible distinto a un planeta que no tenga luces artificiales.
Para detectar esa débil señal se requiere una nueva generación de telescopios (con sensores de largo alcance, seguramente). La técnica podría ser examinada usando objetos en el borde de nuestro Sistema Solar.
Los investigadores calculan que los mejores telescopios de hoy deberían ser capaces de ver la luz generada por una metrópolis del tamaño de Tokio situada a la distancia del cinturón de Kuiper, esa región habitada por Plutón, Eris y miles de pequeños cuerpos helados. Si hubiera ciduades allí deberían detectarse ahora. Al mirar, los astrónomos pueden afinar la técnica para el momento en el que se anuncie el descubrimiento de los primeros planetas habitables tipo Tierra, mundos en distantes estrellas en nuestra galaxia.

Es poco probable que haya ciudades en el borde de nuestro Sistema Solar, pero la ciencia dice que se debe chequear. Debemos dar mas credito a la ciencia ficcion del ayer, que puede ser la ciencia de hoy.

"En todos los grandes hombres de ciencia existe el soplo de la fantasía."


"End of transmission"



video

viernes, 4 de noviembre de 2011

RAYO TRACTOR DE STAR TREK A LA NASA


En mi primer libro titulado " De la Fantaciencia a la Cosmoconciencia" (en edicion ), trato el tema de los adelantos venideros a partir de la ciencia ficcion. Uno de ellos esta relacionado con el famoso " rayo tractor" utilizado en las series Star Trek, todos los fans de esa serie siempre supimos de que se trataba, para que se lo utilizaba, pero no si era factible hacerlo realidad en el futuro.

Ahora,un equipo de la Nasa obtuvo el financiamiento para llevar a cabo un estudio que busca desarrollar "rayo tractores" para recoger muestras en futuras misiones espaciales, una técnica que hasta ahora sólo ha sido posible solo en las películas de ciencia ficción.
La lógica detrás de esa técnica es que el rayo láser funcione como un instrumento que succiona y atrapa, por ejemplo, el polvo espacial y lo introduce en un dispositivo para después ser analizado.
El destino de US$100.000 será usado para examinar tres métodos que se basan en el uso del láser con este fin. Muchas de las ideas sobre "rayo tractores" han sido publicadas en la literatura científica, pero ninguna se ha implementado.

El científico de la NASA Paul Stysley señaló que el enfoque podría "mejorar los objetivos de la ciencia y reducir los riesgos de las misiones". "Aunque es uno de los pilares fundamentales de la ciencia ficción y de Star Treck (Viaje a las estrellas) en particular, la captura (de partículas) utilizando láser no es algo descabellado o que vaya más allá del actual desarrollo tecnológico", indicó el doctor Stysley, del Centro de vuelo espacial Goddard de la Nasa, grupo que fue galardonado con la suma de dinero.

El equipo ha identificado tres posibles opciones para poder acorralar y recoger muestras de materiales desde naves espaciales en órbita o estacionadas. Uno de esos métodos es una adaptación del bien conocido efecto "pinzas ópticas" o vórtice óptico, en el cual los objetos pueden ser atrapados en el foco de uno o dos rayos láser. Sin embargo, esta técnica requeriría de la atmósfera para funcionar.
Los otros dos métodos dependen de rayos láser especialmente diseñados, pues se quiere buscar una alternativa al haz cuya intensidad máxima se ubica en el centro y se va dispersando gradualmente hacia otras partes de su cuerpo. El equipo está investigando dos alternativas: los rayos de solenoide y los rayos de Bessel.

Dentro de un rayo de solenoide, la intensidad se encuentra en una espiral alrededor del eje de propagación. Los rayos solenoides ejercen una fuerza en dirección opuesta al rayo y pueden atraer partículas atrapadas en el haz de luz.
Un sistema óptico de recolección podría recoger moléculas deseables de la atmósfera superior cuando una nave espacial está en órbita o atraparlas desde la atmósfera inferior desde un módulo de aterrizaje.
Los rayos Bessel, por su parte, emiten un haz conformado por varios anillos capaces de introducir campos electromagnéticos en su trayecto. Eso permitiría atraer objetos. La intensidad en el haz de Bessel crece y cae en picos, lo que permite que se distribuya alrededor del punto central y alcance distancias más largas. La facultad de ser un "rayo tractor" o la capacidad de arrastre de los rayos solenoide ya ha sido probada en el laboratorio. Los ensayos fueron dados a conocer en la publicación especializada Optics Express.

El poder de arrastre de los rayos Bessel se mantiene en periodo de prueba. En los tres casos, explicó Stysley, el efecto es pequeño, pero podría superar en algunas circunstancias los métodos que ya existen para la recolección de muestras.
"Las técnicas actuales han probado ser muy exitosas, pero están restringidas por los altos costos, su alcance limitado y la reducida capacidad de arrastre".
"En otras palabras, ellos podrían capturar partículas de forma continúa y a larga distancia por periodos de tiempo más extensos", señaló el experto.

"La ciencia ficción no es sólo un género literario, sino algo más: un estado de conciencia".

"End of transmission"


video

jueves, 3 de noviembre de 2011

ENCUENTRO CERCANO CON ASTEROIDE YU55

El asteroide 2005 YU55 estuvo aproximadamente a 2.3 millones de kilómetros de la Tierra el 19 de abril del 2010, pero este año estará a tan sólo 324.600 kilómetros de la Tierra el próximo 8 de noviembre.
Próximamente la NASA estará estudiando nuevamente la órbita del asteroide 2005 YU55 con antenas de la Agencia “Deep Space Network” en Goldstone-California. La investigación empezará mañana 4 de Noviembre, usando la antena de 70 metros de diámetro durante 2 horas. Luego se continuará monitoreándolo desde noviembre 6 hasta noviembre 10, durante cuatro horas cada día. Los científicos esperan obtener en las imágenes de radar una resolución de 2 metros/pixel que revelará muchas características de la superficie. Las observaciones desde el Radiotelescopio de Arecibo empezarán en noviembre 8, fecha de máxima aproximación a la Tierra.

Aunque el cuerpo celeste se aproximará bastante a la Tierra, no producirá efectos gravitacionales notables sobre la Tierra y no habrá entonces influencia sobre las mareas y menos aún sobre las placas tectónicas de nuestro planeta.
¡Este encuentro cercano con la Tierra no se repetirá por lo menos en 200 años, por tanto es una gran oportunidad para estudiarlo muy bien! De otra parte, un acercamiento a la Tierra de un cuerpo de tamaño similar al 2005 YU55 ocurrirá en el 2028.
El asteroide tiene un periodo orbital alrededor del sol de 1.22 años e inicialmente se estimó que tenía un tamaño de 200 metros de diámetro.

El mayor radiotelescopio del Mundo de Arecibo (Puerto Rico) encontró mediante técnicas de radar que su forma es aproximadamente esférica y que tiene realmente un diámetro de 400 metros. Además encontró que posee un movimiento de rotación lento y gira alrededor de su eje en 18 horas.
Es importante tener en cuenta que inicialmente el asteroide se clasificó como de potencial amenaza para la Tierra en febrero del 2010 y fue clasificado en la escala de Torino en el grado 1, pero con los datos nuevos que se obtuvieron en varios observatorios del mundo y en nuestro observatorio, en abril del 2010 la amenaza que presentaba el asteroide de colisionar con la Tierra descendió a valor 0. Con los datos adquiridos por los observatorios y con los datos de radar logrados desde el Radiotelescopio de Arecibo (desde abril 19 hasta el 21 del 2010), la órbita del 2005 YU55 se ha refinado mucho y se ha calculado que por lo menos dentro de los 100 próximos años el asteroide no impactará la Tierra.
Pero el 8 de noviembre de este año es una fecha muy importante para obtener nuevos datos y afinar el cálculo de su órbita. También debido a su proximidad a la Tierra se observará mucho mejor su forma y se entenderá mejor la dinámica del asteroide.

"Al principio viene necesariamente a la mente la ciencia ficcion, ¿Chocara contra nosotros este asteroide ?. Después los cálculos matemáticos y las observaciones llevan a la realidad cientifica esa ficcion". De la Fantaciencia a la Cosmoconciencia.

"End of transmission"

video

miércoles, 2 de noviembre de 2011

EXPLOSIONES DE FASE TARDIA EN EL SOL

El 15% de las explosiones solares tienen distintas "fases de llamarada tardía" que no habían sido observadas y que pueden ayudar a predecir la meteorología solar que estalla hacia la Tierra desde el Sol, informó la NASA.

El Observatorio de Dinámica Solar (SDO) de la NASA analizó 191 explosiones solares desde mayo de 2010 y encontró que 15% de las erupciones tienen una fase tardía después de unos minutos o tal vez horas de comenzar. También producen mucha más energía en el espacio de lo que se creía.
"Estamos empezando a ver todo tipo de cosas nuevas. Vemos un gran aumento en las emisiones, desde media hora a varias horas después (del origen de la explosión) que a veces es incluso mayor que la emisión de las fases originales de la llamarada", dijo Phil Chamberlin, subdirector científico del proyecto del SDO. Chamberlin explicó que se han dado casos en los que si sólo se midieran los efectos de la erupción principal se estaría subestimando en 70% la cantidad de golpes de energía que recibe la atmósfera terrestre.

Un mejor análisis de la cantidad de energía que se deposita en la atmósfera terrestre podrá ayudar a los científicos a cuantificar cuánta energía produce el Sol cuando entra en erupción.
El equipo de investigación encontró evidencias de estas fases tardías cuando comenzó la recolección de datos en mayo de 2010 y el Sol "decidió montar un espectáculo".
En la primera semana de observación empezaron a surgir nuevos brotes de diferentes tamaños, que dividieron por la intensidad de los rayos X que emiten en el pico de sus llamaradas.
"Durante décadas, medíamos las erupciones a través del pico de los rayos X. Pero empezamos a ver que los picos no se correspondían con los datos y pensamos que era una anomalía o que alguno de nuestros instrumentos estaba fallando", explicó Tom Woods, científico espacial en la Universidad de Colorado. Sin embargo, a medida que confirmaron los datos con otros instrumentos, observaron que los patrones se repetían a lo largo de los meses.

La energía adicional liberada durante la fase tardía puede tener un gran efecto sobre la Tierra. Las longitudes de onda en el ultravioleta extremo son particularmente eficientes para calentar y para ionizar la atmósfera superior de la Tierra. Cuando la atmósfera de nuestro planeta es calentada por la radiación en el ultravioleta extremo, se hincha, lo cual acelera el deterioro orbital de satélites en órbita baja. Además, la acción ionizante del UV (ultravioleta) extremo puede alterar las señales de radio y trastornar la operación normal del Sistema de Posicionamiento Global (Global Positioning System o GPS, por su sigla en idioma inglés).

El SDO pudo realizar este descubrimiento debido a su habilidad única para monitorizar la emisión solar en el ultravioleta extremo en alta resolución, las 24 horas del día, los 7 días a la semana. Con esa clase de escrutinio, es difícil mantener un secreto como se creia que escondia el Sol.

"Sólo el descubrimiento de la naturaleza del universo tiene un sentido duradero." Albert Einstein


"End of transmission"

video

martes, 1 de noviembre de 2011

ESTRELLA CON ESTRUCTURAS ESPIRALES

Una nueva imagen del disco de gas y polvo alrededor de una estrella similar al Sol ha sido la primera en mostrar estructuras espirales en forma de brazos. Estas características pueden proporcionar pistas sobre la presencia de planetas integrados en las mismas, aunque no resulten visibles.

"Las simulaciones detalladas por ordenador nos han demostrado que el tirón gravitatorio de un planeta dentro de un disco puede perturbar el gas y el polvo, dando lugar a la creación de los brazos espirales. Ahora, por primera vez, estamos viendo estos rasgos dinámicos", dijo Carol Grady, astrónoma de Eureka Scientific, Inc., que tiene su sede en el Centro Goddard de Vuelo Espacial en Greenbelt, Maryland.
La investigación de Grady es parte del proyecto SEEDS de exploración estratégica de exoplanetas y discos con el telescopio Subaru, un estudio de cinco años de duración en el infrarrojo cercano de estrellas jóvenes y los discos de polvo en sus alrededores alrededores usando el telescopio Subaru en Mauna Kea, en Hawai. El consorcio internacional de investigadores ahora incluye más de 100 científicos de 25 instituciones.

"Lo que estamos encontrando es que una vez que estos sistemas alcanzan edades de unos pocos millones de años, sus discos comienzan a mostrar una gran cantidad de estructuras, como anillos, huecos y ahora formas en espiral", dijo John Wisniewski, colaborador de la Universidad de Washington en Seattle. "Muchas de estas estructuras podrían ser causadas por planetas dentro de los discos", dijo.
El disco recién captado rodea SAO 206462, una estrella de magnitud 8,7 situada a unos 456 años luz de distancia en la constelación del lobo. Los astrónomos estiman que el sistema solo tiene 9 millones de años. El disco rico en gas se extiende por unos 22.530 millones de kilómetros, que es más del doble del tamaño de la órbita de Plutón en nuestro propio sistema solar.
La imagen del Subaru en el infrarrojo cercano revela las características de un par de espirales en arco a lo largo del disco exterior. Los modelos teóricos muestran que un solo planeta incorporado puede producir un brazo espiral a cada lado de un disco. Las estructuras alrededor de SAO 206462 no se forman en pares, lo que sugiere la presencia de dos mundos invisibles, uno para cada brazo.

Sin embargo, el equipo de investigación advierte que procesos no relacionados con los planetas pueden dar lugar a estas estructuras.

"Somos polvo de estrellas que piensa acerca de las estrellas". Carl Sagan

"End of transmission"


video