_____________________________________________

lunes, 14 de marzo de 2011

CONSECUENCIAS GEOFISICAS DEL TERREMOTO EN JAPON

Imágenes satelitales tomadas por la Nasa antes y después del terremoto, considerado en el peor de la historia nipona, indican que la isla se habría desplazado 2,4 metros. Con esto también insisten los cálculos del Servicio Geológico de Estados Unidos (Usgs).
"En este momento sabemos que una estación GPS se desplazó 2,4 metros y hemos visto un mapa de la Autoridad en Información Geoespacial (Gsi) en Japón que muestra el patrón de cambio en una gran superficie y concuerda con el cambio de la masa terrestre", señaló a la cadena de televisión estadounidense CNN el geofísico de Usgs, Kenneth Hudnut.

La Nasa publicó dos imágenes que ilustran el desplazamiento. Las fotografías fueron tomadas por un espectroradiómetro de imágenes de su satélite Terra y muestran el litoral oriental de la isla, sobre todo la región de Sendai, el epicentro de la tragedia. Las imágenes ponen en evidencia los cambios producidos por el sismo.
En tanto, también se estima que el terremoto podría haber desplazado 10 centímetros el eje de la Tierra. Esta versión fue lanzada por el instituto Nacional de Geofísica y Vulcanología de Italia (Ingv).
"El sismo fue más débil que el de Sumatra (ocurrido en 2004), pero se produjo en una latitud que aseguró el mayor efecto posible", había comentado Giuseppe Bianco, director del Centro de Geodesia Espacial de la Agencia Espacial Italiana (Asi).

En este sentido, también se habló sobre la posibilidad de que se haya acortado la duración del día terrestre. Sobre este tema, Richard Gross, geofísico de la Nasa, explicó que el sismo provocó un aumento de velocidad en la rotación de la Tierra, por lo que los días comenzarían a tener 1,6 microsegundos menos (un micosegundo es la millonésima parte de un segundo).

El USGS indicó que a lo largo del miércoles pasado Japón sufrió cuatro grandes temblores al este de la costa de Honshu, la principal isla nipona. El día 9 se registró uno de magnitud 7.2 grados, seguido de tres de 6.1 durante la tarde y la noche.
Aunque Japón —situado sobre el Cinturón de Fuego del Pacífico– sufre un 20 por ciento de los terremotos que se registran en todo el mundo con una magnitud superior a 6 puntos, la cifra superó lo habitual en el país.

La dependencia estadunidense agregó que a lo largo de aquel miércoles también se registraron otros 22 movimientos sísmicos con una magnitud superior a 4.5 (13 de ellos superiores a 5). El jueves pasado hubo otros 10 temblores importantes (cinco de ellos superiores a la magnitud 5).
A modo de comparación: el pasado enero hubo 162 temblores superiores a 4 en todo el mes, pero sólo 12 con una magnitud superior a 5. La media de los últimos años es de 73 y nueve, respectivamente.

La Tierra ha temblado siempre, y en todas partes del mundo; la Tierra tiembla a diario y varias veces al día. Los sismógrafos detectan entre 18 mil y 24 mil movimientos sísmicos por año − 50 a 65 por día −. Sin embargo la actividad sísmica se incrementa y los científicos prevén que en los próximos 30 años habrá terremotos de más de 8 grados de intensidad. Las consecuencias de estos fenómenos son cada vez más devastadoras, entre otras causas, debido al aumento de la densidad de población en las zonas de alto riesgo.

El globo terráqueo está formado por capas concéntricas. La más superficial es la corteza cuyo espesor es de alrededor de 30 Km en los continentes y de 15 kilómetros en los océanos.
El límite inferior de la corteza se conoce como “Discontinuidad de Mohorovic”. Por debajo está el manto que se extiende hasta una profundidad de 2900 Km. El cascarón más externo de la Tierra se comporta como un cuerpo rígido. Esta porción tiene un espesor de aproximadamente 100 Km y forma la litosfera, constituida por la corteza y parte del manto que flota sobre el resto del manto. El comportamiento del manto, desde una perspectiva geológica, es similar al de un líquido.

El recubrimiento sólido no es continuo, sino que está partido en pedazos; a estas porciones se les llama placas. Estas placas están en contacto y se desplazan entre sí, con movimientos relativos. A veces se deslizan paralelamente sobre sus márgenes y otras veces una de las placas se sumerge bajo la otra, dando lugar al fenómeno de subducción. En este caso, una de las placas cabalga sobre la otra.

Las causas de dichos movimientos de las placas tectónicas son desconocidos al menos hasta ahora eso opinan los científicos , sin embargo nuevas corrientes de pensamiento han estudiado esta interacción , y han encontrado una relación entre las tormentas solares y su impacto magnético en el núcleo terrestre formado de hierro, que al agitarse por el golpe magnético de los rayos solares conmueve las mareas del magma terrestre, haciendo vibrar las placas tectónicas.

La litosfera muestra, en la actualidad, síntomas clásicos de la inestabilidad precedente al acercamiento de una catástrofe, es decir, un megaterremoto. El comportamiento sísmico observado a escala global implica un estado de criticalidad de la litosfera de la tierra en la pasada década .
Si observamos de nuevo las estadísticas de los últimos sismos podemos encontrar ya a primera vista una notable diferencia entre el número de sismos que ocurren durante los años de baja actividad solar frente a los sucedidos en los años de máxima actividad de nuestro sol. Por ejemplo, durante el final del ciclo solar 22 y comienzo del ciclo 23 –años de menor actividad solar– el número de sismos registrados fue de 107.498, mientras que durante la máxima actividad solar del ciclo 23, el número de temblores se incrementó a 138.926; exactamente un 29,24% superior.

Podemos ver con cierta claridad que la actividad solar influye de modo notorio en la actividad sísmica terrestre y más adelante veremos que existe una correlación significativa entre la actividad sísmica en la Tierra y el Sol.
Los terremotos y las llamaradas solares son fenómenos que implican emisiones enormes y rápidas de energía, caracterizados por una ocurrencia temporal compleja.
Analizando catálogos experimentales disponibles, se observa que los procesos estoclásticos, que son la base de estos fenómenos al parecer diversos, tienen características universales.
Ambos fenómenos exhiben las mismas distribuciones de tamaños, tiempos de inter-ocurrencia y agrupamiento temporal. La universalidad observada sugiere un acercamiento común a la interpretación de ambos fenómenos en términos de un mismo mecanismo físico de conducción.

Las llamaradas solares son explosiones altamente energéticas de las regiones activas del Sol que se manifiestan bajo la forma de flujos de radiación electromagnética, de partículas y flujos de plasma emitidos por fuertes y rizados campos magnéticos.
Recientes estudios han mostrado que las llamaradas solares también afectan al interior del Sol, generando ondas sísmicas similares a terremotos . Los jets de las llamaradas se presentan en las regiones solares activas donde el flujo magnético emerge del interior solar y obra recíprocamente con el campo magnético ambiente. Estas altas emisiones de partículas cargadas y flujos de plasma magnetizado son transferidos al viento solar.

El movimiento de este flujo de plasma que es el viento solar, tiene un carácter caótico e intermitente, y fuerte dependencia de la actividad solar.
Este proceso de transferencia de energía entre el plasma magnetizado y el viento solar, sigue siendo una paradoja compleja, pero a través de las simulaciones emprendidas a tal fin, podemos entender la supersónica y fuerte magnetizada magnetohidrodinámica del viento solar. Una de las características comprensibles de esta magnetohidrodinámica es su repercusión en las fluctuaciones de la densidad del viento solar provocadas por el plasma magnetizado de las eyecciones solares .

Disponemos en la actualidad de suficientes estudios científicos y sistemas tecnológicos que podrían ayudar a los gobiernos en la prevención sísmica.

"¿Qué puede haber imprevisto para el que nada ha previsto?" Paul Ambroise Valéry

"End of transmission"

viernes, 11 de marzo de 2011

TERREMOTO EN JAPON Y ACTIVIDAD SOLAR


En este blog habia escrito el dia 28 de Febrero pasado el riesgo que podian producir las prominencias solares, poco después de que la NASA captara una monstruosa llamarada solar el pasaso 24 de febrero, en luz ultravioleta por el satélite de la NASA Solar Dynamics Observatory (SDO).
Hoy se ha producido un terremoto espectacular de magnitud 8.9 con epicentro en el norte de Japón que está generando docenas de tsunamis por todo el Pacífico.

La alerta de tormentas magnéticas y eventos derivados de estas inestabilidades que se producirán en la Tierra ha sido lanzada por la comunidad científica.
La actividad solar nos demuestra que está alterando el medio ambiente y ejerce un gran dinamismo que lleva inexorablemente a lo que conocemos como “cambios climáticos”, solo basta ver las fotografías que cada tres horas se publican del disco solar y las perturbaciones magnéticas que emite hacia la tierra.

Los procesos de tipo viscoso plasmático del viento solar, someten a las placas tectónicas a fuertes compresiones y distensiones en mayor o menor medida dependiendo de la densidad y la temperatura de la magnetosfera, y se transmiten de unas zonas a otras a través del manto, provocando tensiones añadidas a la dinámica de las placas tectónicas disparando procesos sísmicos en las zonas estresadas. Estos efectos sobre la litosfera son de diferente intensidad en función de la posición de la Tierra en la órbita alrededor del Sol.

Al recibir estos bruscos cambios de presión, las capas de la corteza terrestre se comportan como una cama elástica flotando sobre el manto líquido y, al ser nuestro planeta como una pelota, la zona que recibe esta presión añadida se hunde y provoca la elevación de otras placas por transferencia de energía a través del manto, en un mecanismo flexible. Si alguna de estas zonas sísmicas se encuentra sobreexcitada, este movimiento provocará en un breve plazo un sismo de alta magnitud. Estos procesos de tipo viscoso impulsan flujos de plasma hacia la misma región en capas atmosféricas de baja latitud, que son atravesadas por líneas de campo magnético cerradas.

El mecanismo de “reconexión magnética” mantiene las líneas del campo magnético interplanetario y el campo magnético terrestre y así forman una única estructura y la configuración topológica de los campos magnéticos crean un estado de intercambio energético conocido como magnetosfera “abierta”.
Este proceso constituye un mecanismo primario de entrada de energía desde el viento solar a la magnetosfera e ionosfera terrestres. La reconexión magnética impulsa flujos de plasma a través de las líneas abiertas del campo en los casquetes polares y los lóbulos magnetosféricos hacia la región de la cola de la magnetósfera.

En ambos procesos los ciclos se completan por la convección dirigida hacia el exterior de la atmósfera en el interior de la magnetosfera , y hace que la Tierra se comporte como un emisor de pulsaciones, –púlsar– y en el que la fotosfera solar actúa como superficie responsiva reflejando estas pulsaciones dando lugar a la creación de nuevas trazas en la fotosfera y recomenzando nuevamente el ciclo actividad solar – ionosfera – magnetosfera – actividad sísmica – magnetosfera – ionosfera – actividad solar.

“Fuertes razones, hacen fuertes acciones.” William Shakespeare

"End of transmission"


miércoles, 9 de marzo de 2011

EL FIN DEL TRANSBORDADOR ESPACIAL


Hoy 9 de Marzo regresa la mision STS-133 del Transbordador Espacial Discovery, siendo este su ultimo vuelo al espacio programado por NASA.
"El transbordador ha volado en una forma rutinaria en los últimos 30 años y muchos estadounidenses no se dan cuenta de las contribuciones que ha hecho para toda la humanidad", dijo Thomas Candrea un oficial de la NASA de Asuntos Públicos.
"Cuando las lanzaderas dejar de volar, creo que los estadounidenses recordarán todas las tecnologías y los avances maravillosos que estas naves espaciales y el diverso grupo de personas que trabajaron en ellas, hicieron posible."

El tiempo dirá si el transbordador será recordado por sus defectos o si será recordado por permitir que astronautas de otros paises volaran, y por haber desplegado el Telescopio Espacial Hubble y los servicios que ha brindado para la Estación Espacial Internacional y todas otras cosas positivas que el transbordador ha hecho posible, ya que voló por primera vez en abril de 1981.

El número de naciones que han volado sus astronautas a bordo de la flota de transbordadores de la NASA es mucho más amplio que la mayoría piensa. Canada, Belgica, Francia, Alemania, Italia, los Países Bajos, España, Suiza, Israel, Japón, México, Rusia, Arabia Saudita y Ucrania, pueden dar fe de ello.

Cuando se trata de los vuelos espaciales, los medios de comunicación, los políticos y el público tienden a centrarse en quien fue "el primero."

Muchos apuntan al hecho de que la Unión Soviética fue el primero en enviar un satélite en órbita.
Sin embargo, la época de traslado en transbordadores se cierra, y no se ha hablado mucho, hasta ahora, de este importante programa espacial.

Más importante aún, el programa, en su conjunto, ha sido un motor muy poderoso para el cambio - tanto dentro de los EE.UU. como en el extranjero-.

La NASA tiene dos misiones mas del transbordador- Endeavour STS-134 de vuelo en Abril, y Atlantis STS-135 de vuelo en Junio.

"Todas las obras de arte deben empezar por el final". Edgar Allan Poe


"End of transmission"

lunes, 28 de febrero de 2011

RIESGOS DE LAS PROMINENCIAS SOLARES

El Sol sigue activo! Una prominecia de gran tamaño ( Clase 3,6 M ) ocurrió cerca del borde del Sol el 24 de febrero de 2011, y se apagó en una masa hermosa, agitando la erupción del plasma que se arremolinaban y retorcian en un período de 90 minutos.
Este evento fue capturado en la luz ultravioleta extrema por el SDO de la NASA ( Observatorio de Dinámica Solar en español).

Parte del material voló hacia el espacio y otras partes cayeron de nuevo a la superficie.
Como las imágenes del SDO son de super-alta definición, los cientificos al hacer zoom en la acción todavía ven detalles exquisitos.
Pero no todo es bello en esto, los riesgos derivados del clima espacial afectan tanto a las personas (en casos muy concretos) como a los sistemas eléctricos y electrónicos, particularmente a las redes de transporte eléctrico y de combustible, a los satélites y a las telecomunicaciones.
En casos de actividad solar excepcional y aunque la probabilidad de ocurrencia sea relativamente baja, el clima espacial podría provocar fallos en cascada que se verían agravados por la interdependencia entre sistemas.

Al finalizar las tormentas, algunos sistemas volverían a funcionar por sí mismos, como las
radiocomunicaciones y el GPS. No obstante, la reparación de otros sistemas podría llevar semanas o incluso meses, como es el caso de los incendios en grandes transformadores. Se estima que, de producirse en la actualidad un nivel de actividad similar al del Evento Carrington de 1859, las pérdidas totales podrían alcanzar los 3 trillones de dólares en el primer año, es decir, 20 veces más que las provocadas por el huracán Katrina y el tiempo total de recuperación oscilaría entre 4 y 10 años.

Como efectos colaterales de los fallos generalizados del suministro eléctrico y debido a la ya mencionada interdependencia entre sistemas, podrían verse afectados el suministro de agua, los transportes públicos, los sistemas bancarios y financieros, algunos servicios gubernamentales y el almacenamiento de alimentos y medicamentos por falta de refrigeración, entre otros.

Así mismo, en el transcurso de una tormenta de radiación solar, los niveles de exposición pueden ser significativos para los pasajeros y los tripulantes de aviones que se encuentren en vuelo a elevadas latitudes, especialmente sobre el Polo Norte y si la componente Bz del campo magnético interplanetario está apuntando hacia el Sur, hecho que favorece la entrada en la atmósfera de las partículas de alto nivel energético procedentes del Sol.

Aunque la investigación sobre estos riesgos para las personas todavía se encuentra en estado embrionario, los diferentes sistemas de alerta existentes contemplan avisos al respecto. De hecho, en la actualidad, algunos de los mayores consumidores sobre información operativa relativa al clima espacial son las compañías aéreas que operan sobre el Polo Norte.

"Grandes hechos suelen ser forjados con grandes riesgos". William Hazlitt

"End of transmission"

viernes, 25 de febrero de 2011

ANTES Y DESPUES DEL COMETA


La misión Stardust-NExT cumplió su misión: observar los detalles de la superficie del cometa no observados durante la misión Deep Impact de 2005; y observar el cráter dejado por el impactor. Fue la primera vez que los científicos pudieron darle una mirada a los cambios experimentados por un cometa luego de su paso por el Sol.

"Esta misión tuvo un 100 porciento de éxito", dijo Joe Veverka, el principal investigador de la Stardust-NExT y Profesor de Astronomía de la Universidad de Cornell, Ithaca, N.Y. "Vimos muchas cosas que no esperabamos y ahora tenemos mucho trabajo por delante para descifrar los que el Tempel 1 nos está tratando de decir."

Es el segundo sobrevuelo cometario de una nave de la NASA reciclada. El 4 de noviembre pasado, la sonda EPOXI (la nave madre de la misión Deep Impact) sobrevoló exitosamente el cometa Hartley 2.

La Stardust-NExT encontró al Tempel 1 a pocas semanas de haber pasado por su perihelio, su punto más cercano al Sol, y casi en el mismo punto de su órbita donde el cometa se encontró con la Deep Impact seis años atrás. Para Joseph Veverka, el investigador jefe de dos misiones recicladas, esta será la parte más importante de la misión y permitirá hacer algo jamás realizado anteriormente: “ver los cambios experimentados en la superficie de un cometa luego de haber pasado cerca del Sol. Gracias a la Deep Impact-EPOXI y la Stardust-NExT, los científicos tendrán una mirada de antes y después del cometa Tempel 1.

Los científicos pudieron ver por primera vez el crater dejado por el impactor, que "nunca vieron antes,” debido a que la nube de material expulsado durante el impacto oscureció la vista de la nave madre de la Deep Impact. Para cuando las partículas se habían depositado en la superficie, la nave nave madre de la misión Deep Impact ya estaba muy lejos, viajando a 10 km por segundo.

Mirar dentro del cráter con la Stardust-NExT dará a la humanidad la primera vista de la estructura interna de un cometa, información vital si algún día necesitamos desviar un cometa del curso de colisión con la Tierra.

Para examinar el cráter, los ingenieros de la nave debieron calcular el encuentro con gran precisión, para que el lado del cráter enfrentara la nave a medida que esta lo sobrevuela a cerca de 40 mil kilómetros por hora.

La Stardust ha acumulado unos 5 mil millones de kilómetros de recorrido por el espacio desde su lanzamiento, y aún no ha terminado su trabajo, por el momento continuará observando el cometa a medida que se aleja.

"Poca observación y muchas teorías llevan al error. Mucha observación y pocas teorías llevan a la verdad". Alexis Carrel

"End of transmission"


martes, 22 de febrero de 2011

NEUTRINOS BAJO LA CORDILLERA DE LOS ANDES


Los físicos y cosmólogos están en un tremendo problema: las cuentas les dan mal. Toda la materia que ven y la energía que registran sus instrumentos más precisos sólo representaría... ¡el 4% del universo! Es decir, que el 96% estaría compuesto por "algo" enigmático y muy diferente de lo que conocemos: la materia y la energía oscuras.

Resolver este intríngulis científico podría confirmar o refutar varias predicciones cruciales del modelo del Big Bang, actualmente vigente, pero exige detectar y estudiar las partículas que conforman la materia oscura, como los neutrinos (que se desplazan a velocidades cercanas a la de la luz y tendrían un tamaño equivalente a la mil millonésima parte de un protón). Para eso, hay que colocar detectores que operen a temperaturas muy cercanas al cero absoluto (-273° Celsius), de modo que cada vez que alguno pase por ellos los caliente levemente.

Hasta ahora, esos instrumentos están en túneles o cavernas bajo las montañas para aprovechar los miles de metros de blindaje que ofrecen la tierra y las rocas a la radiación cósmica, todos en el hemisferio Norte. Sin embargo, si prospera la iniciativa que impulsan los físicos del Conicet Xavier Bertou, del Centro Atómico Bariloche, Rio Negro Argentina y Osvaldo Civitarese, de la Universidad Nacional de La Plata, Buenos Aires, Argentina dentro de cinco o seis años podría haber uno en la Argentina. Más precisamente, en el Paso de Agua Negra, en la provincia de San Juan, Argentina.

Este monumental proyecto ya se encuentra en estudio en el Ministerio de Ciencia, Tecnología e Innovación Productiva, y propone adosar un gran laboratorio al túnel que uniría Chile y la Argentina para tender un corredor bioceánico que conectaría Santos o Porto Alegre, en Brasil, con Coquimbo, en el país trasandino.

El acuerdo para realizar esta obra fue firmado el 28 de agosto de 2009 por los presidentes de Argentina , Chile y Brasil, y, en este momento, dos equipos de ingenieros de las empresas Bureau de Projetos Ltda., de Brasil, y Geoconsult Buenos Aires SA, con la dirección del ingeniero M. Bofer, están haciendo los estudios de factibilidad en forma conjunta. Costaría unos 850 millones de dólares y a mediados de año se haría la licitación. Para construir el laboratorio, habría que agregar un 1% más, unos diez millones.

"Este laboratorio permitiría realizar varios experimentos de gran volumen -explica el doctor Civitarese-. Uno haría posible la detección de propiedades de los neutrinos, como el decaimiento beta doble, un proceso muy exótico que sólo existiría si estas partículas tienen masa. También podríamos estudiar las «oscilaciones» de neutrinos produciendo un haz de estas partículas en el Fermilab, de Chicago, y detectándolo en San Juan. Pero, además, está la posibilidad alojar experimentos de biología, geofísica, estudios ambientales y microelectrónica."

Como suele suceder, el azar jugó un papel crucial en la génesis de este gran sueño. "Con Xavier, nos enteramos por casualidad del túnel y se nos ocurrió que se podría radicar allí este gran proyecto científico", afirma Civitarese.

La posibilidad de que se creara el laboratorio Andes ya tuvo una amplia repercusión y, en los últimos seis meses, los físicos recibieron cartas de intención de las sociedades de físicos de México, Brasil, Chile, y de grupos experimentales de los Estados Unidos, Francia, Italia, Rusia y Alemania, todos ansiosos por participar. "Estados Unidos estaba por construir un laboratorio similar en una mina de oro, en Dakota, y se acaba de cancelar -cuenta el científico-. Prácticamente nos enviaron una súplica para colocar un acelerador de partículas acá si se llega a construir." Y más adelante, subraya: "Lo importante es no dejar pasar la oportunidad de hacer el estudio de factibilidad, que es imprescindible realizar al mismo tiempo que el del túnel".

El gobierno de San Juan encaró con entusiasmo el proyecto de Agua Negra y recibió con beneplácito la iniciativa del laboratorio Andes. Próximamente, los investigadores realizarán un taller en la Comisión Nacional de Energía Atómica para exponer los lineamientos de este desafío.

"Esta es una tarea para 30 o 40 años. Tendría una proyección incalculable sobre las nuevas generaciones, que podrían desarrollar experimentos propios -destaca Civitarese-. Podría establecerse un centro con gran circulación de profesores visitantes, estudiantes de doctorado... La Argentina estaría en la punta de la física mundial, porque el de Agua Negra sería el único laboratorio de este tipo en el hemisferio Sur.

"Sin laboratorios los hombres de ciencia son como soldados sin armas". Louis Pasteur

"End of transmission"


lunes, 14 de febrero de 2011

FOTONES CON INFORMACION

Un colosal agujero negro girando tan poderosamente genera fotones, las unidades básicas de la luz, y los envía a toda velocidad miles de años luz a través del espacio. Algunos de ellos llegan a la Tierra. Un grupo de científicos anuncia en la revista Nature que los fotones que viajan de ese modo, llevan la firma de esa sacudida colosal, como una distorsión en la forma en que se mueven. Esa distorsión es como un e-mail a larga distancia del propio agujero negro, que contiene información sobre su tamaño y la velocidad de su giro.
Los investigadores dicen que estos fotones lanzados al espacio son la clave para desentrañar la teoría que predice agujeros negros en un universo temprano.

“Es raro encontrar en el marco de la relatividad general un fenómeno nuevo que nos permita poner a prueba la teoría”, dice Martin Bojowald, profesor de física en Penn State y autor de un artículo en News & Views que acompaña el estudio.
Los agujeros negros son tan poderosos que afectan a la materia cercana e incluso el espacio y el tiempo. Este efecto, llamado frame dragging y predicho por Eistein, puede ser detectado por giroscopios sensibles de los satélites.

El autor principal del estudio, Fabrizio Tamburini, astrónomo de la Universidad de Padua, Italia, y sus colegas, han calculado que esta rotación del espacio-tiempo puede crear una forma intrínseca del momento angular orbital distinto de su giro. Los autores sugieren visualizar esto como ondas no-panas de esta luz retorcida como una escalera en espiral cilíndrica, centrada en el haz de luz.
“El patrón de intensidad de luz transversal retorcida muestra una mancha oscura en el centro – cómo la parte central de esa escalera de caracol- rodeado por círculos concéntricos”, escriben. “La torsión [momento angular orbital] puede ser vista en los patrones de interferencia.” Los investigadores necesitan entre 10.000 y 100.000 fotones para reconstruir la historia de un agujero negro.

Y los telescopios necesitan algún tipo de tecnología 3D (u holográfica) para poder ver la forma de sacacorchos de las ondas de luz que reciben, dice Bojowald. “Si un telescopio puede acercarse lo suficientemente, se puede estar seguro de que todos los fotones de entre 10.000 y 100.000 provienen del disco de acreción y no de otras estrellas más lejanas. Por lo tanto el aumento de la potencia del telescopio será un factor crucial. “
En su opinión, basada en un cálculo aproximado, una estrella como el sol tan lejana del centro de la Vía Láctea tendría que ser observada por menos durante un año. Así que no va a ser una prueba inmediata, pero no se tendría que esperar mucho tiempo.

El coautor del estudio Bo Thide , profesor y director del programa en el Instituto Sueco de Física Espacial , dijo que un año puede ser un cálculo exagerado, incluso teniendo en cuenta una pequeña rotación y la necesidad de recabar hasta 100.000 fotones.
“Pero, ¿quién sabe”, dijo. “Sabremos más después de haber realizado modelos más detallados y, por supuesto, más observaciones. En este momento hacemos hincapié en el descubrimiento de un nuevo fenómeno de la relatividad general que nos permite hacer observaciones y predicciones cuantitativas precisas “.

"Lo importante de todo es nunca dejar de hacerse preguntas. La curiosidad tiene su propia razón de existir". Albert Einstein

"End of transmission"

viernes, 11 de febrero de 2011

UN OCEANO DE OTRO MUNDO

Durante años, los investigadores han debatido sobre la posibilidad de que Encelado, una pequeña luna que flota en las afueras de los anillos de Saturno, albergue un vasto océano subterráneo. ¿Es una luna con agua líquida, o no? En la actualidad, nuevas evidencias parecen inclinar la balanza hacia el sí. No sólo es muy posible que Encelado posea un océano, sino que dicho océano probablemente contenga burbujas como una bebida gaseosa y podría ser atractivo para la vida microbiana.
La historia comenzó en el año 2005, cuando la sonda Cassini, de la NASA, llevó a cabo un sobrevuelo cerca de Encelado.
"Los geofísicos esperaban que este pequeño mundo fuera solamente un trozo de hielo frío, inerte y poco interesante", dice Dennis Matson, del Laboratorio de Propulsión a Chorro (Jet Propulsion Laboratory, en idioma inglés), de la NASA.

Pero se llevaron una sorpresa !

Cassini descubrió que la pequeña luna estaba muy activa, emitía penachos de vapor de agua, partículas de hielo y compuestos orgánicos a través de fisuras (conocidas como "rayas de tigre") en su caparazón congelado. Mimas, una luna cercana y de tamaño similar, estaba tan muerta como esperaban los científicos; pero Encelado, en cambio, estaba precozmente activa.
Muchos investigadores consideraron que los chorros gélidos eran una prueba de la existencia de un enorme depósito subterráneo de agua. Bolsas de agua cercanas a la superficie, con temperaturas de alrededor de 0o C (32o F), podrían explicar los penachos acuosos.En sobrevuelos iniciales, los instrumentos de Cassini detectaron carbono, hidrógeno, oxígeno, nitrógeno y diversos hidrocarburos en los gases de los penachos. Pero no hallaron ninguno de los elementos de la sal que el agua de un océano debía contener.

En 2009, el analizador de polvo cósmico de la sonda Cassini encontró por fin la desaparecida sal —en el lugar menos esperado.
"No estaba en los gases de los penachos, donde la habíamos estado buscando", relata Matson. "En cambio, las sales de sodio y potasio, así como los carbonatos, se encontraban todos atrapados en las partículas de hielo de los penachos.* Y la fuente de estas sustancias tiene que ser un océano. Las sustancias que se disuelven en el agua de un océano son similares a las que contienen estos granos".

Las más recientes observaciones de la sonda Cassini mostraron otro intrigante descubrimiento: las mediciones térmicas revelaron que las fisuras tenían temperaturas de hasta -84o C (-120 o F, o 190 Kelvin).
"¡Este descubrimento vuelve a poner nuestros relojes en cero!", dice Matson. "Temperaturas tan altas como estas tienen que tener un origen volcánico". El calor debe de fluir desde el interior y debe de ser suficiente como para derretir algo del hielo subterráneo, creando de este modo canales acuáticos debajo de la superficie.
Este hallazgo ha llevado a los científicos a preguntarse cómo es que el contenido de un océano, sellado por una corteza de hielo de decenas de kilómetros de espesor, logra alcanzar la superficie.

El modelo que él y sus colegas proponen sugiere que gases disueltos en el agua profunda debajo de la superficie forman burbujas. Dado que la densidad de esta "agua con gas" es menor que la del hielo, el líquido asciende rápidamente a través del hielo y hasta la superficie.
"La mayor parte del agua se esparce hacia los lados y 'entibia' una delgada capa de hielo de unos 91 metros (300 pies) de espesor", explica Matson. "Pero una parte de ella se recolecta en cámaras a baja profundidad, incrementa su presión y súbitamente estalla a través de pequeños agujeros en el suelo, como la bebida gaseosa de la lata que usted abrió. Conforme el resto del agua se enfría, se filtra hacia abajo para reabastecer el océano y comenzar de nuevo todo el proceso".

Pero otro misterio continúa sin resolverse: "¿De dónde proviene el calor en este pequeño cuerpo celeste?", se pregunta Larry Esposito, de la Universidad de Colorado. "Creemos que el calor por la fuerza de las mareas puede estar contribuyendo".
Las poderosas mareas creadas por Saturno hacen que la forma de Encelado varíe levemente conforme gira en torno a él. Estos movimientos de flexión en el interior de la luna generan calor; como el calor que se siente cuando usted dobla rápidamente hacia delante y hacia atrás un clip para papel. En este modelo, la fricción interna es la fuente de energía que genera una actividad volcánica, la cual calienta y derrite el hielo.

"Ahora tenemos claro que, sin importar lo que produzca el calor, Encelado cumple con muchos de los requisitos para la vida", dice Esposito. "Sabemos que tiene un océano líquido y una fuente de energía. Y, además de todo eso, sabemos que hay organismos en la Tierra que sobreviven en condiciones semejantes".
Nadie sabe con seguridad qué es lo que está sucediendo debajo de todo ese hielo, pero pareciera que esta pequeña luna tiene un historia muy interesante para contarnos: chorros en erupción, un océano subterráneo, la posibilidad de albergar vida.

"A veces sentimos que lo que hacemos es tan solo una gota en el mar, pero el mar sería menos si le faltara una gota". (Madre Teresa de Calcuta)

"End of transmission"


jueves, 3 de febrero de 2011

TELESCOPIO INTERNACIONAL LOFAR

Los científicos europeos y sus colaboradores están emocionados por el hecho de que el más grande observatorio de radio en el mundo acaba de ser inaugurado, y ya tomó sus primeras imágenes. La matriz del telescopio radio tiene una anchura de casi de 1.000 kilómetros, y cuenta con antenas en una variedad de lugares en toda Europa.

El Telescopio Internacional LOFAR (Matriz de Baja Frecuencia para la Radioastronomía) finalmente ha conectado algunas de sus estaciones de investigación, y logró utilizar estas capacidades asombrosas para tomar imágenes increíbles de las estructuras cósmicas distantes.
Mientras estaban utilizando el observatorio este mes, los investigadores pudieron recopilar una interesante imagen de un agujero negro activo en el centro de una galaxia distante. El objeto, llamado quasar, se llama 3C196.

A pesar de la enorme distancia entre la estructura y la Tierra, el telescopio fue capaz de tomar una imagen sorprendentemente clara con una resolución alta. Toda la matriz fue creada de tal manera para que pueda inspeccionar todo el cielo en las frecuencias de radio más bajas que son accesibles desde la superficie.

El Observatorio Chilbolton de Hampshire también fue usado como un componente de LOFAR, y también como su estación más occidental. "Este es un acontecimiento muy significativo para el proyecto LOFAR y una gran demostración de lo que contribuye el Reino Unido", explica el experto Derek McKay-Bukowski.
Él también es el líder de proyecto STFC/SEPnet en LOFAR Chilbolton. "Las nuevas imágenes son tres veces más nítidas de lo que ha sido previamente posible con LOFAR", va a decir el funcionario.

"LOFAR funciona como una lente gigante para acercar – cuánto más radiotelescopios añadimos, y cuanto más lejos son entre sí, mejor será la resolución y la sensibilidad," explica McKay-Bukowski.
"Esto significa que podemos ver objetos más pequeños y más pálidos en el cielo que nos ayudarán a responder a preguntas interesantes sobre las cosmología y la astrofísica".
El profesor Rob Fender de la Universidad de Southampton, el líder de LOFAR del Reino Unido, dice que la instalación internacional logró combinar juntas informaciones desde las estaciones de los Países Bajos, Francia, Alemania y el Reino Unido.
Las señales "han sido combinadas con éxito en el superordenador LOFAR BlueGene/P en los Países Bajos. La conexión entre el telescopio de Chilbolton y el superordenador requiere una velocidad de Internet de 10 gigabits por segundo”, explica Fender.

"Hacer que esa conexión funcione sin problemas fue una gran hazaña que requirió una colaboración estrecha entre STFC, la industria, las universidades de todo el país y nuestros socios internacionales", concluye el experto.

"Todo es resultado de un esfuerzo. Sólo se aguanta una civilización si muchos aportan su colaboración al esfuerzo". José Ortega y Gasset


"End of transmission"

miércoles, 2 de febrero de 2011

EL SOL EN SU TOTALIDAD POR STEREO


"Por primera vez en la historia de la humanidad podremos ver la parte frontal y el lado más alejado del Sol ... Al mismo tiempo, "dijo Guhathakurta Madhulika científico del Programa STEREO en la sede de la NASA. "Esta será la primera vez que podemos ver todo el Sol a la vez ", dijo tambien, Dean Pesnell, astrofísico de Nasa. Pesnell es el Científico de Proyecto para el Observatorio de Dinámica Solar (SDO) del Centro Goddard de Vuelos Espaciales de la NASA en Greenbelt, MD.
Este notable logro se producira cuando los dos naves STEREO alcancen los 180 grados separados en lados opuestos del Sol el Domingo, 06 de febrero 2011 y asi se podran observar los 360 grados del sol.

STEREO es el acrónimo de Observatorio de Relaciones Terrestres Solares. Su misión es proporcionar , en 3-D "estéreo" imágenes del sol para estudiar la naturaleza de las eyecciones de masa coronal.
Hoy en día, la nave espacial STEREO esta a 179.1 grados de distancia y unos 90 grados de la Tierra , y por lo tanto prácticamente en el punto medio en la parte posterior del sol. Ambas sondas fueron lanzadas al espacio hace cuatro años.

"Hasta ahora ha habido siempre una parte invisible del Sol", explicó Pesnell. un modelo global debe incluir a todos los lados del Sol para asi entender el campo magnético que pasa a través de su superficie."

Desde la Tierra sólo podemos ver uno de los polos del Sol a la vez, mientras que con STEREO podremos ver los dos polos al mismo tiempo.
Los próximos años la superposición de imágenes coronales será una mina de oro de información para predecir el clima espacial a la Tierra y la comprensión de cómo funciona el Sol.

"Al ver los dos polos deberemos ser capaces de entender por qué el campo magnético polar es un buen predictor de la actividad solar", dijo Pesnell.

"Ver ambos lados ayudará a los científicos realizar mapas más precisos del campo magnético coronal y la topología, así como una mejor previsión de las regiones activas - las zonas que producen las tormentas solares -.
Observaciones simultáneas con STEREO y SDO nos ayudarán a estudiar el Sol como un todo y ayudara tambien en gran medida en el estudio de la conectividad magnética.

"El 06 de febrero vamos a ver el 100% del sol", dijo Guhathakurta.

"Como sentado en un trono real, el sol gobierna la familia de planetas que giran alrededor suyo". Nicolás Copérnico

"End of transmission"


viernes, 28 de enero de 2011

MAS CERCA DE ENCONTRAR MATERIA OSCURA

Los físicos están más cerca que nunca de encontrar la fuente de la misteriosa materia oscura del universo, tras un año mejor de lo esperado de investigación en el detector de partículas Compact Muon Solenoid (CMS), parte del Gran Colisionador de Hadrones (LHC) en el CERN en Ginebra.

Los científicos han llevado ahora a cabo la primera ejecución completa de experimentos que impactan protones entre sí casi a la velocidad de la luz.

Cuando estas partículas sub-atómicas colisionan en el corazón del detector CMS, las energías y densidades resultantes son similares a las de los primeros instantes del universo, inmediatamente tras el Big Bang hace unos 13 700 millones de años. Las condiciones únicas creadas por estas colisiones pueden llevar a la producción de nuevas partículas que habrían existido en esos primeros instantes y que desde entonces han desaparecido.

Los investigadores dicen que están en camino de ser capaces de confirmar o descartar una de las principales teorías que podría resolver muchas de las grandes preguntas de la física de partículas, conocida como supersimetría (SUSY). Muchos esperan que pudiera ser una extensión valida del Modelo Estándar de la física de partículas, la cual describe las interacciones de las partículas subatómicas conocidas con una asombrosa precisión, pero no logra incorporar la relatividad general, la materia oscura ni la energía oscura.

La materia oscura es una sustancia invisible que no puede detectarse directamente, pero cuya presencia se deduce a partir de la rotación de las galaxias. Los físicos creen que forma aproximadamente un cuarto de la masa del universo, mientras que la materia visible y común apenas forma un 5% del mismo. Esta composición es un misterio, lo que lleva a intrigantes posibilidades de una física aún por descubrir.

El Profesor Geoff Hall del Departamento de Física en el Imperial College de Londres, que trabaja en el experimento CMS, dijo: Hemos dado un importante paso adelante en la búsqueda de la materia oscura, aunque no se ha realizado hasta el momento ningún hallazgo. Estos resultados han llegado más rápido de lo esperado, debido a que el LHC y el CMS funcionaron mejor el año pasado de lo que habíamos esperado, y ahora somos muy optimistas respecto a las promesas de captar supersimetría en los próximos años”.

La energía liberada en las colisiones protón-proton del CMS se manifiestan como partículas que salen volando en todas direcciones. La mayor parte de las colisiones producen partículas conocidas, pero en raras ocasiones, se producen algunas nuevas, incluyendo las predichas por SUSY – conocidas como partículas supersimétricas, o “partículas-s”. La partículas-s más ligera es un candidato natural para la materia oscura dado que es estable y CMS sólo “vería” estos objetos a través de la ausencia de su señal en el detector, lo que llevaría a un desequilibrio entre energía y momento.
Para buscar las partículas-s, el CMS busca colisiones que produce dos o más “chorros” de energía (cúmulos de partículas viajando aproximadamente en la misma dirección) y una pérdida significativa de energía.

El Dr. Oliver Buchmueller, también del Departamento de Física en el Imperial College de Londres, pero con sede en el CERN, explica: “Necesitamos una buena comprensión de las colisiones comunes, de forma que podamos reconocer las inusuales cuando sucedan”. Tales colisiones son raras, pero pueden reproducirse por la física conocida. Examinamos unos 3 billones de colisiones, y encontramos 13 “similares a SUSY”, alrededor del número esperado. Aunque no se han encontrado pruebas de partículas-s, estas medidas estrechan el área de búsqueda para la materia oscura de forma significativa”.
Los físicos están esperando las ejecuciones de 2011 del LHC y CMS, que se espera que traigan datos que pudiesen confirmar la supersimetría como explicación de la materia oscura.

El experimento CMS es uno de los dos experimentos de propósito general diseñado para recopilar datos del LHC, junto con ATLAS (A Toroidal LHC ApparatuS). El Grupo de Física de Alta Energía del Imperial College ha desempeñado un papel clave en el diseño y construcción del CMS y ahora, muchos de los miembros trabajan en la misión para encontrar nuevas partículas, incluyendo la esquiva partícula del bosón de Higgs (si es que existe) , y resolver algunos de los misterios de la naturaleza, tales como de dónde procede la masa, por qué no hay antimateria en el universo, y si hay más de tres dimensiones espaciales.

"El misterio es la cosa más bonita que podemos experimentar. Es la fuente de todo arte y ciencia verdaderos". Albert Einstein

"End of transmission"


miércoles, 26 de enero de 2011

HOLLYWOOD-NASA FABRICAS DE SUEÑOS

Desde los 8 años de edad que veo peliculas y series de Ciencia Ficcion, siempre me apasiono el genero y como explique en el comienzo de mi blog, fue un estimulo para el estudio posterior de la ciencia y el cosmos. Siempre me parecio que existia una conexion entre Hollywood y la NASA, ahora son múltiples los casos en los que la creatividad de Hollywood cae rápidamente en el rango de la exageración, y con la ciencia ficción de por medio, el control sobre lo que es «científicamente correcto» se desvanece tan rápido como el humo del cigarrillo entre los dedos del guionista. De hecho, un grupo de físicos encabezados por un profesor universitario ha pedido a los productores que las películas de ciencia ficción reduzcan drásticamente sus errores en relación con las leyes de la física.

El equilibrio entre "ciencia" y "ficción" es más complejo de lo que parece, y aunque no dudamos en combinar ambas palabras para describir a un género muy importante para nosotros, cuando una de ellas trata de ubicarse por encima de la otra, los resultados suelen ser desastrosos. La NASA, ridiculizada en una cantidad significativa de filmes de ciencia ficción, toma un poco de venganza al nombrar algunas de las peores películas "científicamente absurdas" del género. ¿Y todo por qué? Porque se han hartado de explicar que en el 2012, el mundo no se va a terminar.

En muchas de ellas encontramos a la NASA, utilizada principalmente como chivo expiatorio para darle al filme una capa de "ciencia seria", cuando en realidad lo único que se logra es confirmar nuestras sospechas de estar ante una pésima película. Pero algo que recientemente ha tenido con los pelos de punta a la NASA es la necesidad de explicar una, otra, y otra vez, que nada de lo visto en la película "2012" va a suceder el año que viene. Incluso se vieron obligados a crear una página Web refutando cada uno de los hechos en el filme.

Tratando de darle un sentido más amplio a este berrinche, la NASA creó una corta lista de integrantes en la cual destaca cuáles son a su parecer los filmes más absurdos en materia científica, y como era de esperarse, "2012" fue considerada la peor de la historia. La trama implica que los neutrinos son los causantes de la destrucción de la Tierra, cuando en realidad apenas interfieren con algunas comunicaciones de radio. El resto de la lista está formada por las terribles "The Core", que hizo sentir vergüenza a Julio Verne, "Armageddon", con petroleros que destruyen asteroides, "The Sixth Day", y el "gobernator" clonado en horas, acento incluido, "Volcano", con Tommy Lee Jones apagando volcanes con mangueras, y "Chain Reaction", descubriendo el secreto de la fusión a partir del ruido generado por... un torno.

Por otro lado, la NASA también destacó aquellas películas que parecieron científicamente adecuadas, comenzando por la visión de un mundo con superpoblación en "Blade Runner", los detalles expuestos en la adaptación de "Contact", y la explicación básica pero eficiente de la genética en "Jurassic Park". Sin embargo, la más real para la NASA es "Gattaca", anticipando un futuro de control y superioridad genética, descartando a los "naturales" como seres inferiores.

Por supuesto, ningún físico puede obligar a un escritor a ser más coherente cada vez que hace una referencia a la física, pero lo cierto es que una película «científicamente correcta» no tiene por qué ser un fiasco. El primer ejemplo que nos viene a la mente es la adaptación de Stanley Kubrick de «2001: Una Odisea Espacial». La película en sí tuvo sus defensores y sus detractores, pero un punto casi imposible de cuestionar fue la precisión científica con la que se describen los viajes espaciales, aunque aún así no estuvo libre de errores menores.

"La pantalla es un medio mágico. Tiene tal poder que puede mantener el interés, ya que transmite emociones y estados de ánimo que ninguna otra forma de arte puede transmitir ". Stanley Kubrick

"End of transmission"


lunes, 24 de enero de 2011

DEBEMOS TERRAFORMAR MARTE ?

¿Podrá la gente algún día vivir al aire libre en Marte?.
Hoy, el planeta rojo es un desierto helado con una atmósfera de dióxido de carbono que es demasiado delgada como para que exista en ella agua líquida. Sin embargo, puede existir agua en los acuíferos sub-superficiales. Las imágenes tomadas por las misiones a Marte muestran lo que podrían ser canales de inundación y redes de valles que podrían tener miles de millones de años de edad, originados en un tiempo en que el agua líquida fluía por la superficie de Marte.

En esa época, Marte habría tenido una atmósfera más espesa y su clima y medioambiente habrían sido más similares a los de la Tierra. Así que, ¿dónde fueron a parar esa atmósfera y esa agua?. ¿Qué causó el cambio ambiental?. ¿Podría cambiar nuevamente?. ¿Podríamos hacer que Marte fuera nuevamente un planeta habitable, tibio y húmedo como la Tierra?. Este proceso se llama “terraformación”.

La primera tarea sería espesar la atmósfera marciana. Mucha de esa atmósfera (y del agua) se cree que se fueron congelando en las capas polares a medida que el planeta se enfriaba. Estas capas están compuestas por hielo seco (bióxido de carbono congelado) y por hielo de agua. Algo de aquella atmósfera puede estar en el permafrost debajo de la superficie. ¿Cómo podríamos hacer para evaporar las capas de hielo y comenzar a elevar la temperatura de la atmósfera?. Tanto el agua como el bióxido de carbono son gases de invernadero. Esto es, atrapan el calor de la luz solar, lo que aumentaría la temperatura superficial. Así se comenzaría un ciclo que fundiría más hielo, calentaría el planeta, e incrementaría tanto la presión del aire como la temperatura. Este proceso se volvería auto-sostenible y podría llevar a un efecto invernadero desbocado. Aún cuando aumentaría la cantidad de bióxido de carbono en la atmósfera, es un paso necesario para el incremento de la presión y de la densidad de la atmósfera.

La luz solar que cae sobre la superficie de un planeta, llega primordialmente como luz visible y ultravioleta. El planeta absorbe esta energía solar, y luego la irradia en forma de energía infrarroja hacia la atmósfera. Los gases de invernadero de la atmósfera funcionan como una capa aislante global, atrapando la radiación infrarroja e impidiendo que escape hacia el espacio.

En los años ‘70, el astrónomo Carl Sagan propuso cubrir las capas polares con un material oscuro, como el que produciría un cometa pulverizado, y con un espesor de un milímetro. Sagan estimó que se necesitarían más de 100 millones de toneladas (o un asteroide de 600 metros de diámetro) para cubrir las capas de hielo. Esta cubierta debería ser renovada cada año, a causa de las frecuentes tormentas de polvo. Como sería una tarea muy ardua, Sagan también propuso utilizar plantas que fueran capaces de crecer en el hielo.

En los ‘80, el científico planetario Chris McKay sugirió que podríamos sembrar las capas polares marcianas con plantas verdes o con microbios genéticamente alterados, que extraerían el agua líquida que necesitaran del hielo. Estos organismos serían oscuros, y así absorberían más luz solar, la que calentaría el hielo e incrementaría el ritmo de evaporación. Si la temperatura superficial fuera lo suficientemente alta, se liberaría más bióxido de carbono del suelo marciano, del permafrost y del hielo polar, y podría inundar las tierras bajas. Este proceso podría necesitar de 100 a 10.000 años.

Lo bueno de las plantas y de los microbios es que son auto-reproductivos. La investigación ha demostrado que algunos microbios pueden sobrevivir en un ambiente marciano simulado, similar a las regiones polares de la Tierra. Tales organismos se podrían extender por las capas polares en un tiempo relativamente corto. Este proceso necesitaría algunos cientos de años para liberar la antigua atmósfera marciana. El aumento de la presión y de la temperatura en la superficie permitiría entonces que el agua líquida se condensara. Habría lluvia, ríos, e incluso, tal vez, océanos. Otras planas verdes crecerían en Marte, tomando sus nutrientes del suelo y del bióxido de carbono del aire, exactamente igual a como lo hacen aquí en la Tierra.

En 1989, el científico Martyn Fogg sugirió que el bióxido de carbono podría estar localizado en las rocas carbonatadas. Propuso utilizar 10 millones de bombas de fusión para vaporizar las rocas y liberar el bióxido de carbono. En 1992, el científico Paul Birch sugirió la construcción de enormes espejos y lentes en el espacio, para que reflejaran la luz solar sobre las capas polares marcianas, y así fundirlas.

Otra posibilidad sería liberar grandes cantidades de clorofluorocarbonos (gases de invernadero) por medio de grandes fábricas en la superficie marciana. Algunos científicos creen que este proceso tomaría unos 100.000 años.

La introducción de plantas verdes tomaría algo del dióxido de carbono y produciría oxígeno, pero se necesitarían varios miles de años para hacer que la atmósfera de Marte fuera respirable tanto para los animales como para los humanos. El oxígeno produciría una capa protectora de ozono, que defendería a la superficie de los rayos ultravioleta del sol. Entonces, los animales y los insectos podrían ser introducidos en el medioambiente.

Una vez que se hubiera restaurado la mayor parte de la atmósfera marciana, la presión del aire sería lo suficientemente alta como para permitir que la gente paseara por la superficie sin necesidad de trajes espaciales. Todavía se necesitarían tanques de oxígeno y respiradores, ya que no podemos respirar bióxido de carbono. La espesa atmósfera serviría de escudo contra la radiación cósmica. Aún así necesitaríamos todavía proteger nuestra piel y nuestros ojos de los rayos ultravioleta provenientes del Sol, ya que la atmósfera carecería de una capa de ozono que nos defendiera como hace la que tenemos en la Tierra.

Para saber si la terraformación es posible, debemos aprender mucho más sobre Marte. ¿Hay suficiente atmósfera congelada? Si es así, ¿puede ser liberada?. Si encontramos que Marte tiene vida, ¿desearíamos dejar el planeta tal como está y no interferir en nada?. Si resulta que Marte carece de vida, podríamos terraformarlo y convertirnos no solo en terrestres, sino también en marcianos.

El 7 de agosto de 1996, un equipo de científicos liderados por David McKay del Centro Espacial Johnson de la NASA en Houston, Texas, anunció el descubrimiento de evidencia microscópica de un posible fósil marciano en un meteorito recuperado en la Antártida. ¿Cómo afectaría ésto la futura exploración y colonización de Marte?. ¿Cuáles son los resultados prácticos y éticos del descubrimiento de vida marciana?. ¿Cuál debería ser nuestro curso de acción con respecto a la posible vida en Marte?. ¿Cuánto tiempo y esfuerzo deberíamos gastar en busca de vida, antes de declarar que Marte carece de ella?. Al fin y al cabo, la vida marciana podría estar en cualquier parte.


Tenemos robots en la superficie, estudiandola todos los dias. Hay planes tambien para traer muestras a la tierra de rocas marcianas, pero deberemos decidir, como planeta, cuánto tiempo gastaremos en la búsqueda de vida marciana. ¿Y qué habrá sobre la contaminación, si existe la vida allí?. Eventualmente, los humanos en Marte estarán expuestos a cualquier forma de vida que haya. El regreso de las naves y de los astronautas podría introducir organismos extraterrestres en la Tierra. Muchos científicos piensan que es muy improbable que una vida que haya evolucionado en Marte en forma independiente, tuviera tanto en común con la vida en la Tierra como para causar daño; pero es imposible estar seguros.

"La Tierra es un lugar más bello para nuestros ojos que cualquiera que conozcamos. Pero esa belleza ha sido esculpida por el cambio: el cambio suave, casi imperceptible, y el cambio repentino y violento. En el Cosmos no hay lugar que esté a salvo del cambio. [Cielo e Infierno, Cosmos].". Carl Sagan

"End of transmission"



miércoles, 19 de enero de 2011

CAZADORES DE EXOPLANETAS



Los usuarios de Internet de todo el mundo serán capaces de ayudar a los astrónomos profesionales en su búsqueda de planetas similares a la Tierra, gracias a un nuevo proyecto científico Online llamado Planet Hunters (Cazadores de Planetas), en el que puede participar el público aficionado a la astronomia planetaria.
Esta iniciativa de busqueda ha sido puesta en marcha recientemente en el sitio web www.planethunters.org y se valdrá de la ayuda de voluntarios para analizar los datos reunidos por la misión Kepler de la NASA.

El telescopio espacial ha estado buscando planetas ubicados fuera de nuestro sistema solar (los llamados exoplanetas) desde su lanzamiento en Marzo de 2009. Entre los impulsores del proyecto figuran los astrónomos Kevin Schawinski, Debra Fischer y Meg Schwamb, de la Universidad de Yale.
Se cree que la misión Kepler cuadruplicará el número de planetas encontrados en los últimos 15 años.

Debido a la gran cantidad de datos que ahora están disponibles gracias a la misión Kepler, los astrónomos recurren a los ordenadores para que estos les ayuden a ordenarlos y a identificar posibles planetas. Pero los ordenadores sólo son buenos para encontrar las cosas específicas que se les enseña a buscar, mientras que el cerebro humano tiene la capacidad de reconocer patrones inesperados e inmediatamente detectar lo que es extraño o único, mucho mejor de lo que podemos enseñarles hacer a las máquinas.

Cuando los usuarios de Planet Hunters inician una sesión en la web del proyecto, se les pide que respondan a una serie de preguntas simples sobre una de las curvas de luz de las estrellas (un gráfico que muestra la cantidad de luz emitida por la estrella a lo largo de un periodo de tiempo) para ayudar a los astrónomos de la Universidad de Yale a determinar si en el gráfico aparece una atenuación repetitiva de la luz, que indicaría la presencia de un posible exoplaneta.

"La búsqueda de planetas es la búsqueda de la vida", sentencia Fischer. Y, al menos para la vida tal como la conocemos, esa búsqueda empieza por tratar de hallar un planeta similar a la Tierra, tal como acota Fischer. Los científicos creen que tales planetas son el mejor lugar para buscar vida, porque tienen el tamaño correcto y orbitan alrededor de sus respectivas estrellas a la distancia correcta para la existencia de agua líquida, un ingrediente esencial para toda forma de vida terrestre.


"Al fondo de lo desconocido para encontrar lo nuevo". Charles Baudelaire

"End of transmission"



lunes, 17 de enero de 2011

CAMBIO CLIMATICO EXTREMO



¿Las torrenciales lluvias que provocan inundaciones catastroficas en Brasil y Australia en estos momentos son causadas por el cambio climatico ?

Segun un informe de la NOAA de USA, el año 2010 estuvo marcado por varios eventos extremos de temperatura. Durante el comienzo del año, una fuerte oscilación negativa del Ártico,- un patrón climático que permite que el aire frío del Ártico se deslice hacia el sur, mientras el aire más caliente se mueve hacia el norte- trajo tormentas de nieve y récord de temperaturas frías para la mayor parte del Hemisferio Norte, incluyendo el este de América del Norte, Europa , y Asia.
El aire polar alcanzó el profundo sur de EE.UU. durante enero y febrero. Las temperaturas del océano en los Cayos de la Florida que cayeron por debajo de 15 ° C (59 ° F), blanqueando y matando los arrecifes de coral, que no puede sobrevivir a las temperatura del agua fria constante. Los expertos informaron que no habían visto un blanqueo de esta magnitud debido a las bajas temperaturas desde el invierno de 1977-1978.

De acuerdo con la Oficina Meteorológica de Reino Unido el Reino Unido experimentó su invierno más frío (diciembre 2009 a febrero 2010) desde 1978 hasta 1979. Por el contrario, el aire caliente en movimiento hacia el norte en Canadá trajo al país el invierno más cálido desde que comenzaron los registros en 1948. Regiones de Canadá, la tundra del Ártico, el Ártico y Fiordos de Montaña, y el bosque del noroeste todos tuvieron su invierno más cálido de la historia. En el Hemisferio Sur, de acuerdo con la Oficina de Meteorología BoM de Australia , el país experimentó su verano más cálido (invierno del hemisferio norte) de la historia, con temperaturas promedio de 0,2 ° C (0.4 ° F) más altas que el récord anterior establecido durante el verano de 1997/98.

Varias olas de calor excepcionales se produjeron durante el año 2010, originando records de altas temperaturas que afectaron a decenas de millones de personas. Las condiciones cálidas estuvieron presentes en toda la India durante el mes de abril. El 18 de abril, Delhi registró su temperatura más alta desde abril 1958, cuando la temperatura se elevó a 43,7 ° C (110,7 ° F). Otra ola de calor asó el norte de la India y Pakistán a finales de mayo. Según el Servicio Meteorológico de Pakistán , una temperatura máxima de 53,5 ° C (128,3 ° F) se registró en Mohenjo-Daro el 26 de mayo. Esta fue la temperatura más alta jamás registrada en Pakistán y la más cálida registrada en Asia desde 1942.

A mediados de junio, una ola de calor azotó el oeste de Rusia durante dos largos meses sin precedentes en la zona. El 29 de julio, el Observatorio de Moscú registró su temperatura más alta de la historia, 38.2 ° C (100,8 ° F), rompiendo el récord anterior de 37,2 ° C (98,9 ° F) alcanzado sólo cuatro días antes. Antes de 2010, la temperatura más alta en Moscú fue de 36,8 ° C (98,2 ° F), alcanzada hace 90 años. Ese mismo día, Finlandia registró su temperatura más alta, el mercurio llegó a 37.2 ° C (99,0 ° F) en Joensuu, rompiendo el récord anterior establecido en Turku en julio de 1914 con 1,3 ° C (2.3 ° F) más alta. La ola de calor masivo causó a Rusia el verano más cálido (junio-agosto) registrado. Por lo menos 15.000 muertes en Rusia se atribuyeron al calor.

El calor extremo del verano se hizo sentir en otras áreas alrededor del mundo. De acuerdo con el el Centro del Clima de Beijing , China experimentó su verano más caluroso registrado desde 1961. Y la Agencia Meteorológica de Japón informó que el país tuvo su verano más cálido desde que comenzaron los registros en 1898. En promedio, las temperaturas en todo Japón fueron 1.64 ° C (2,96 ° F) mayores que el promedio 1971-2000. Según Medio Ambiente de Canadá , Canadá tuvo su tercer verano más caluroso desde que los registros nacionales comenzaran en 1948, detrás de 1998 (más caliente) y 2006 (segundo más caluroso). De hecho, el período de enero-agosto el período de Canadá más cálido de la historia. En cambio, Australia vivió su invierno más fresco en (verano del Hemisferio Norte) en 13 años.

En septiembre una ola de calor abrasador en una del oeste de los EE.UU. trajo al centro de Los Ángeles, California, su temperatura más alta nunca registrada, el día 27. Se registró una temperatura de 45 ° C (113 ° F) , rompiendo el récord anterior de 44,4 ° C (112 ° F), alcanzado el 26 de junio de 1990.

Al igual que en el comienzo del año, diciembre se caracterizó por una fuerte fase negativa de la Oscilación del Ártico. Según la Oficina Meteorológica del Reino Unido , durante el mes de diciembre, el Reino Unido fue, en promedio, alrededor de 9º F (5 ° C) por debajo de la media de 1971-2000, por lo que fue el diciembre más frío en más de 100 años. También fue el mes más frío registrado desde febrero de 1986. Los Estados Unidos en su conjunto experimentaron su séptimo diciembre con más nieve, mientras que el sureste tuvo su tercer diciembre más frío. La Oscilación del Ártico negativa también contribuyó a la menor extensión del hielo del mar Ártico de diciembre, de acuerdo con el Centro Nacional de Datos de Nieve y Hielo .

La Niña influyó en los patrones de precipitación en Australia durante la última parte del año. Las fuertes lluvias en todo el país trajo temperaturas más frías, lo que lleva a la cuarta primavera más fresca de la historia del país (septiembre-noviembre; Hemisferio Norte) . A nivel nacional las temperaturas máximas fueron 1,23 ° C (2.21 ° F) por debajo de lo normal, la más baja desde 1999. Diciembre con la temperatura media 1,35º C; (2,43 ° F) por debajo de lo normal, fue el segundo diciembre más frío, por detrás de 1999. En general, fue el año más frío de Australia desde 2001, pero seguía estando 0,19 ° C por encima de la media de 1961-1990. En una escala de décadas, los años 2001-2010 fueron la década más cálida para el país.

El Instituto Meteorológico de Finlandia informó de que 2010 fue año más frío de Finlandia desde 1987, 0,6 ° C inferior a la media. El Instituto también informó de que el decenio 2001-2010 fue más cálido que las décadas anteriores para el país, con registros que datan de la década de 1840. La temperatura promedio de esta década fue de 0.30 ° C por encima de la media de la década de 1930, anterior década más cálida en Finlandia. Además, las temperaturas de cada estación del año (período de tres meses) promediada durante la década fue una de las dos estaciones más cálidas en los últimos 160 años, con más calentamiento en invierno
La precipitación global en 2010 fue muy superior al promedio 1961-1990, ubicándose como el más húmedo registrado desde 1900. Precipitaciones durante todo el año fue variable en muchas áreas. A nivel regional, más seco que las condiciones medias fueron generalizadas en gran parte de la Polinesia francesa, las Islas Salomón, Islas de Hawai, el noroeste de Canadá, extremo noroeste y el noreste de Brasil y el sur de Perú. Las regiones más húmedas incluyeron la mayor parte de América Central, gran parte de la India, el suroeste de China, Sureste de Asia, Borneo, y partes de Australia.

El Niño y La Niña, las lluvias monzónicas y las tormentas tropicales desempeñaron un papel importante en algunos de los patrones de precipitaciones extremas observadas durante el 2010 año hasta la fecha. Durante el año, numerosos ciclones tropicales trajeron grandes cantidades de lluvia en distintas regiones de todo el mundo, incluyendo el norte
de Australia, el sur y el este de Asia, México, y la mayor parte de América Central.
Canadá experimentó su invierno , muchos lugares en Ontario, Canadá no recibieron ningún rastro de nieve en marzo de 2010, estableciendo nuevos récords de bajas nevadas. En la ciudad de Toronto, que normalmente recibe 22 cm (8,7 pulgadas) de nieve en marzo no se registraron nevadas este año. Esto rompió el récord de poca nieve que data ya desde 1898. Hacia el oeste, Alaska tuvo su tercer enero más seco, sobre registro desde 1918.

Tras su febrero y marzo más seco, la sequía fue declarada de Auckland, Nueva Zelanda y sus alrededores. La sequía continuó en Nueva Zelanda y el país en su conjunto, durante el otoño (marzo-mayo, la primavera del Hemisferio Norte) la precipitación fue 50-80% inferior a la media.

Cerca del final de julio, el mismo patrón de bloqueo que llevó a Rusia su ola de calor sin precedentes contribuyó a una avalancha de fuertes precipitaciones en Pakistán. Más de 300 mm de lluvia cayeron del 28 al 30 de julio en la provincia de Peshawar, dando lugar a inundaciones extremas que sumergieron aproximadamente 20 por ciento del país. Un funcionario del gobierno de Pakistán informó de la inundación fue la peor desde 1929. Al menos 1.500 personas murieron debido a las inundaciones y deslizamientos de tierra. Monzones más fuertes de lo normal continuaron en septiembre, afectando tanto a Pakistán y la India. Por el contrario, Bangladesh tuvo su temporada más seca del monzón desde 1994.

Una serie de fuertes tormentas trajeron fuertes lluvias al noreste de China y Corea del Norte durante el mes de agosto. Las inundaciones posteriores fueron las peores en la región en más de una década. Las intensas lluvias monzónicas afectaron a Vietnam, Tailandia y el sureste de China en octubre. Tailandia sufrió las peores inundaciones en décadas.

En octubre, el norte de Brasil y el oeste la Amazonia se encontraba en medio de una de sus peores sequías en 40 años. El Río Negro, uno de los afluentes más importantes del Amazonas cayó a su nivel más bajo desde que comenzaron a llevarse registros en 1902.
En Julio en pleno invierno en Buenos Aires, Argentina, la temperatura cayo a -1.5 º C (29F) siendo esta la temperatura mas fria en los ultimos 10 años. En Lima, Peru por su parte la temperatura cayo a 8º C (46F) siendo record de temperatura fria en 46 años.

La Niña trajo lluvias récord para la mayor parte de Australia hacia el final del año. El país tuvo su primavera más lluviosa de la historia. A nivel nacional el promedio de precipitaciones fue 163.0 mm, que fue de 125% por encima de lo normal para el período. Sin embargo, cabe señalar que, en contraste el resto del país, el suroeste de Australia Occidental tuvo su primavera más seca de la historia. La humedad extrema continuó en diciembre, especialmente en el nororiental estado de Queensland, con en diciembre más lluvioso registrado y experimentaron la mayor inundación,la precipitación para diciembre fue de 99% por encima lo normal, situándose como Australia el segundo diciembre más lluvioso de la historia, detrás de diciembre de 1975.
El año 2010 fue el tercero más lluvioso desde que comenzaron los registros en 1900 y el más húmedo desde 2000. El Suroeste de Australia Occidental informó de su año más seco de la historia.



El año 2010 empatado con el 2005 como el año más cálido desde que comenzaron los registros en 1880. El informe anual combinado de la tierra global y temperatura de la superficie del océano fue 0.62 ° C (1,12 ° F) por encima de la media del siglo XX .

"El calentamiento del planeta es uno de esos casos en que la comunidad científica siente mas miedo que la población en general".

"End of transmission"

miércoles, 12 de enero de 2011

TORMENTAS DE ANTIMATERIA EN LA TIERRA

El telescopio espacial Fermi de la NASA ha descubierto que las tormentas de la Tierra lanzan al espacio haces de antimateria. Estas partículas, que funcionan como la imagen ante el espejo de la materia -por ejemplo, un antielectrón, también conocido como positrón, no es más que un electrón con carga positiva- y que los científicos creen que ayudaron a formar el Universo tal y como lo conocemos, se originan en un destello de rayos gamma, una breve explosión que parece estar relacionada con los relámpagos. Los científicos estiman que se producen unos 500 estallidos como estos cada día, pero la mayoría no son detectados.
El hallazgo ha sido presentado durante la reunión de la Sociedad Astronómica Americana en Seattle y será publicado en la revista Geophysical Research Letters.

«Estas señales son la primera evidencia directa de que las tormentas crean haces de partículas de antimateria», explica Michael Briggs, miembro del equipo del Monitor de Estallidos de Rayos Gamma de Fermi en la Universidad de Alabama en Huntsville.

El telescopio está diseñado para seguir los rayos gamma, la forma de luz de mayor energía. Cuando la antimateria colisiona con una partícula de materia normal, ambas partículas inmediatamente se aniquilan y se transforman en rayos gamma. El detector del Fermi ha encontrado rayos de este tipo con energías de 511.000 electronvoltios, una señal que indica que un electrón ha encontrado a su homólogo en la antimateria, el positrón.

Fermi vigila constantemente todo el cielo. «En órbita durante menos de tres años ha demostrado ser una asombrosa herramienta para estudiar el Universo», apunta Ilana Harrus, investigadora del programa Fermi en las oficinas centrales de la NASA en Washington. «Ahora sabemos que también puede ser clave en misterios que están mucho más cerca de casa».


En la mayoría de los destellos de rayos gamma observados, la nave permanecía situada justo por encima de la tormenta, pero en cuatro casos se encontraba bastante lejos, a muchos kilómetros de distancia de los rayos. Por ejemplo, durante uno de estos casos, ocurrido el 14 de diciembre de 2009, Fermi se situaba en órbita sobre Egipto. Sin embargo, la tormenta activa azotaba Zambia, a unos 4.500 kilómetros al sur. «Aunque Fermi no podía ver la tormenta, la nave estaba magnéticamente conectada a la misma», explica Joseph Dwyer, del Instituto Tecnológico en Melbourne, Florida.

La detección de positrones demuestra que muchas partículas de alta energía son expulsadas desde la atmósfera. De hecho, los científicos creen que todos los rayos gamma emiten haces de electrones y positrones. Sin embargo, «aún tenemos que descubrir qué es lo que hace que estas tormentas sean especiales y qué papel desempeñan los rayos en el proceso», reconoce Steven Cummer, de la Universidad de Duke.

La antimateria puede explicarse como la imagen ante el espejo de la materia. Por ejemplo, un átomo de antihidrógeno -que los científicos ya han conseguido capturar- tendría las mismas propiedades y componentes que uno de hidrógeno, pero con la carga eléctrica opuesta. Cuando la materia y la antimateria entran en contacto se aniquilan mutuamente, un proceso que los científicos creen ocurrió instantes después del Big Bang y que ayudó a formar el Universo tal y como lo conocemos. En ese momento, prevaleció la materia y sólo quedó una pequeñísima parte de antimateria en el Cosmos, muy difícil de detectar y más aún de capturar.

"El microscopio empieza donde el telescopio termina". Victor Hugo

"End of transmission"


lunes, 10 de enero de 2011

KEPLER-10b EXOPLANETA ROCOSO



Otra buena noticia nos trae este año 2011. El telescopio espacial Kepler de la NASA ha encontrado al planeta más pequeño detectado hasta ahora fuera del Sistema Solar. Se trata de Kepler-10b, un exoplaneta rocoso de un tamaño similar a una Tierra y media.


El planeta está ubicado en la constelación del Cisne, a unos 560 años luz de la Tierra.

El descubrimiento ha sido posible gracias a los datos recogidos por el telescopio espacial durante más de ocho meses, desde mayo de 2009 hasta principios de enero de 2010.
“Las mejores capacidades de Kepler han convergido para aportar la primera evidencia sólida de un planeta rocoso que gira alrededor de una estrella que no es nuestro Sol —dice Natalie Batalha, delegada jefa del equipo científico de la misión Kepler en el Ames Research Center de la NASA, en Moffett Field, California (EE UU), y autora principal aceptado por la revista Astrophysical Journal.

El fotómetro ultrapreciso de la nave puede medir las pequeñas disminuciones que se producen en el brillo de una estrella cuando un planeta cruza por delante de ella. El tamaño del planeta se puede inferir de estas caídas periódicas en el brillo. Y la distancia entre el planeta y la estrella se calcula midiendo el tiempo entre descensos sucesivos mientras el planeta gira alrededor de la estrella.

Kepler es la primera misión de la NASA capaz de encontrar planetas del tamaño de la Tierra en o cerca de la zona habitable (la región en un sistema planetario en la cual puede existir agua líquida en la superficie del planeta). Sin embargo, puesto que describe su orbita una vez cada 0,84 días, Kepler-10b se encuentra a más de veinte veces más cerca de su estrella que Mercurio de nuestro Sol y no en la zona habitable.

Kepler-10 fue la primera estrella identificada que podría albergar un pequeño planeta en tránsito, con lo que se colocó a la cabeza de la lista de observaciones basadas en tierra con el telescopio de 10 metros del W. M. Keck Observatory, en Hawái (EE UU). Así se pudo medir pequeños cambios en el espectro de la estrella (efecto Doppler) causados por el revelador tirón ejercido por el planeta que giraba alrededor de la estrella.

“El descubrimiento de Kepler-10b, un auténtico planeta rocoso, es un hito importante en la búsqueda de planetas similares al nuestro —dice Douglas Hudgins, del programa científico de la misión Kepler en las oficinas centrales de la NASA en Washington—. A pesar de que no se encuentre en la zona habitable, el emocionante hallazgo muestra el tipo de descubrimientos realizados gracias a la misión y la promesa de que vendrán muchos más”.

Batalha añade: “Nuestro conocimiento del planeta es tan bueno como el conocimiento de la estrella en torno a la que gira”. Debido a que Kepler-10 es una de las más brillantes estrellas objetivo de la misión Kepler, los científicos han sido capaces de detectar variaciones de alta frecuencia en el brillo de la estrella generadas por las oscilaciones estelares, o terremotos estelares. “Este es el análisis que realmente nos ha permitido precisar las propiedades de Kepler-10b”.

“Tenemos una señal clara en los datos de las ondas de luz que viajan dentro del interior de la estrella”, comenta Hans Keldsen, astrónomo del Kepler Asteroseismic Science Consortium en la Universidad de Aarhus, Dinamarca. Los científicos de este centro utilizan la información para comprender mejor la estrella, del mismo modo que los terremotos se utilizan para aprender acerca de la estructura interior de la Tierra. “Como resultado de este análisis, Kepler-10 es una de las estrellas que pueden albergar planetas mejor caracterizadas en el universo cerca de nuestro Sol”, apunta Kjeldsen.

En el caso de Kepler-10b, el panorama que se dibuja es el de un planeta rocoso con una masa de 4,6 veces la de la Tierra y con una densidad media de 8,8 gramos por centímetro cúbico (similar a la de una pesa de gimnasia de hierro).

"A veces creo que hay vida en otros planetas, y a veces creo que no. En cualquiera de los dos casos la conclusión es asombrosa". Carl Sagan

"End of transmission"


lunes, 3 de enero de 2011

LA FISICA DETRAS DE TRON

En las dos secuelas de las peliculas: Tron (1982) y Tron El Legado (2010) se digitaliza y teletransporta un ser humano, pero que hay de cierto detras de la fisica aplicada en Tron ?

El sueño de la fantasia cientifica de transportar seres de un lugar a otro todavia no se ha hecho realidad, pero ¿ quien se atreve a adivinar lo que nos depara el futuro ? Podriamos usar las tecnicas existentes para teletransportar estados elementales, como los de los fotones, a traves de distancias de unos kilometros y puede que hasta a un satelite. Disponemos ya de los recursos tecnicos para teletransportar estados de atomos sueltos, sin ir mas lejos, el grupo dirigido por Serge Haroche, de la Escuela Normal Superior de Paris, ha realizado un entrelazamiento de atomos. Parece razonable esperar que, de aqui a diez años, se logre el entrelazamiento de moleculas y su subsiguiente teletransporte. Lo que venga luego, nadie lo sabe.

Mas plausible se ve la aplicacion del teletransporte a la computacion cuantica, donde el concepto comun de bits (ceros y unos ) se generaliza y convierte en el de qubits, que pueden existir como superposiciones y entrelazamientos de ceros y unos. Podria emplearse el teletransporte para transferir informacion cuantica entre procesadores cuanticos. Los teletransportadores cuanticos podrian servir, ademas, para construir un computador cuantico.

Un computador cuantico puede funcionar como una superposicion de muchos datos de entrada a la vez. Puede, por ejemplo, ejecutar un algoritmo simultaneamente sobre un millon de datos de entrada utilizando solo tantos qubits como bits necesitaria un computador ordinario para ejecutar el algoritmo una sola vez sobre un solo dato de entrada. Los algoritmos que se ejecutan con computadores cuanticos pueden resolver ciertos problemas mas deprisa ( con menos pasos de computacion) que cualquier algoritmo conocido ejecutado en un ordenador clasico. Entre esos problemas estan el de encontrar un determinado elemento de una base de datos y el de obtener la factorizacion de numeros grandes, de sumo interes en el desciframiento de codigos secretos.

Por ahora solo se han construido los elementos mas fundamentales de los computadores cuanticos: puertas logicas que procesan uno o dos qubits. La construccion, siquiera sea a pequeña escala, de un computador cuantico queda aun lejos. Habra que resolver el problema de la transferencia fiable de los datos cuanticos entre los diferentes procesadores o puertas logicas, sea
dentro de un solo computador o a traves de redes cuanticas. La llave de la solucion podria esconderse en el teletransporte cuantico.

Daniel Gottesman, de Microsoft e Isaac L. Chuang de IBM, han demostrado hace poco que se puede construir un computador cuantico polivalente con tres componentes basicos: particulas entrelazadas, teletransportes cuanticos y puertas que manejen un solo qubit por vez. Este resultado ofrece un metodo sistematico de construir puertas de dos qubits. El truco para construir una puerta de dos qubits con un teletransportador consiste en teletransportar dos qubits desde lo que entra en la puerta hasta lo que sale, por medio de pares entrelazados modificados de una manera muy determinada. Los pares entrelazados se modifican de suerte tal, que la salida de la puerta reciba los qubits adecuadamente procesados. La ejecucion de la logica cuantica en dos qubits desconocidos se reduce pues a preparar unos estados entrelazados predefinidos concretos y teletransportarlos.

La mecanica cuantica es una de las teorias mas profundas jamas descubiertas. Los problemas que plantea a nuestra percepcion intuitiva del mundo llevaron a Einstein a criticarla con energia.
Para el, la fisica debia constituir una tarea de comprension de la realidad objetiva, independientemente del observador. Lo que no le impidio percatarse de que nos enfrentabamos ante grandes problemas al querer asignar esa realidad fisica independiente a cada miembro de un par entrelazado. Su antagonista, Niels Bohr, le replico que habia que tomar en cuenta el sistema entero, en el caso de un par entrelazado, la disposicion conjunta de ambas particulas. El desideratum de Einstein, el estado real independiente de cada particula, carece de significado para un sistema cuantico entrelazado.

El teletransporte cuantico desciende directamente de las situaciones estudiadas por Einstein y Bohr. Siguiendo a Bohr, entenderemos la mecanica cuantica si advertimos que la ciencia no describe como es la naturaleza , sino que expresa lo que podemos decir de esta.
Ahi reside el verdadero valor de los experimentos, como el teletransporte, que investiga los fundamentos de la mecanica cuantica y que nos ayuda a tener un conocimiento mas profundo del misterioso mundo cuantico.

"Fin de impresión- Control Central de Programas". Tron

"End of transmission"


sábado, 1 de enero de 2011

MARTE EN LA TIERRA


Comenzamos el 2011 con muy buenas noticias !!!! .Científicos de Chile y otros países construirán una base en el desierto de Atacama, el más árido del mundo, para simular una colonia espacial, plataformas de lanzamientos móviles e invernaderos como si se estuviera viviendo sobre el mismísimo planeta Marte (foto Atacama y Marte). La información, difundida por el diario El Mercurio de Chile, detalla que se trata del Centro de Investigación Luna-Marte, un complejo científico, tecnológico y turístico que será emplazado en una zona reconocida por la comunidad científica internacional como una de las más parecidas a Marte en la Tierra: con radiación solar y temperaturas extremas, baja humedad y además fuertes vientos.

La base se levantará en el llano de Chajnantor, situado a 55 kilómetros al este de la localidad de San Pedro de Atacama, a 5.150 metros de altura y a unos 1.650 kilómetros al noreste de Santiago.
En el lugar, el Observatorio Europeo Austral (ESO, por su sigla en inglés) construye junto a sus socios internacionales el Atacama Large Millimeter/submillimeter Array (ALMA), un telescopio de vanguardia para estudiar la luz de algunos de los objetos más fríos en el Universo. La académica de la Universidad de Antofagasta y una de las coordinadoras chilenas del proyecto, Carmen Gloria Jiménez, explicó que hay experiencias previas en Utah, Estados Unidos, y en la isla Devon, en el Artico canadiense.

La científica señaló que se construirán los primeros laboratorios, usando como materiales los fuselajes de aviones Hércules, en el que se estudiarán microorganismos denominados extremófilos , entre otros, que han sobrevivido al menos 26.000 años en volcanes, salares y lagunas cercanas, como Licancabur y Ascotán.

Afirmó que también se trabajará con operadores turísticos, universidades e industrias mineras para patentar innovaciones tecnológicas. Entre los impulsores del proyecto están la NASA, Mars Society, el Instituto SETI, la agencia espacial de China y más de 40 empresas que prestan servicios a la investigación y carrera espacial estadounidense.

Fernando Ardenes, asesor de la Agencia Chilena del Espacio, explicó que “la idea es empezar a trabajar en las plataformas en 2011 y hacer actividades relacionadas con la educación, investigación y transferencia de la tecnología geoespacial para agricultura y vitivinicultura” . Indicó que en Marzo próximo visitaría la zona una delegación de la agencia espacial de China, que proyecta contar hacia 2020 con bases subterráneas en la Luna para extraer minerales. En Abril, un grupo de la NASA llegará a Chajnantor, un sitio muy seco y agreste para la vida pero excelente para investigaciones astronómicas.

"La inteligencia de un cientifico es como agua en el desierto ".

"End of transmission"