_____________________________________________

viernes, 28 de enero de 2011

MAS CERCA DE ENCONTRAR MATERIA OSCURA

Los físicos están más cerca que nunca de encontrar la fuente de la misteriosa materia oscura del universo, tras un año mejor de lo esperado de investigación en el detector de partículas Compact Muon Solenoid (CMS), parte del Gran Colisionador de Hadrones (LHC) en el CERN en Ginebra.

Los científicos han llevado ahora a cabo la primera ejecución completa de experimentos que impactan protones entre sí casi a la velocidad de la luz.

Cuando estas partículas sub-atómicas colisionan en el corazón del detector CMS, las energías y densidades resultantes son similares a las de los primeros instantes del universo, inmediatamente tras el Big Bang hace unos 13 700 millones de años. Las condiciones únicas creadas por estas colisiones pueden llevar a la producción de nuevas partículas que habrían existido en esos primeros instantes y que desde entonces han desaparecido.

Los investigadores dicen que están en camino de ser capaces de confirmar o descartar una de las principales teorías que podría resolver muchas de las grandes preguntas de la física de partículas, conocida como supersimetría (SUSY). Muchos esperan que pudiera ser una extensión valida del Modelo Estándar de la física de partículas, la cual describe las interacciones de las partículas subatómicas conocidas con una asombrosa precisión, pero no logra incorporar la relatividad general, la materia oscura ni la energía oscura.

La materia oscura es una sustancia invisible que no puede detectarse directamente, pero cuya presencia se deduce a partir de la rotación de las galaxias. Los físicos creen que forma aproximadamente un cuarto de la masa del universo, mientras que la materia visible y común apenas forma un 5% del mismo. Esta composición es un misterio, lo que lleva a intrigantes posibilidades de una física aún por descubrir.

El Profesor Geoff Hall del Departamento de Física en el Imperial College de Londres, que trabaja en el experimento CMS, dijo: Hemos dado un importante paso adelante en la búsqueda de la materia oscura, aunque no se ha realizado hasta el momento ningún hallazgo. Estos resultados han llegado más rápido de lo esperado, debido a que el LHC y el CMS funcionaron mejor el año pasado de lo que habíamos esperado, y ahora somos muy optimistas respecto a las promesas de captar supersimetría en los próximos años”.

La energía liberada en las colisiones protón-proton del CMS se manifiestan como partículas que salen volando en todas direcciones. La mayor parte de las colisiones producen partículas conocidas, pero en raras ocasiones, se producen algunas nuevas, incluyendo las predichas por SUSY – conocidas como partículas supersimétricas, o “partículas-s”. La partículas-s más ligera es un candidato natural para la materia oscura dado que es estable y CMS sólo “vería” estos objetos a través de la ausencia de su señal en el detector, lo que llevaría a un desequilibrio entre energía y momento.
Para buscar las partículas-s, el CMS busca colisiones que produce dos o más “chorros” de energía (cúmulos de partículas viajando aproximadamente en la misma dirección) y una pérdida significativa de energía.

El Dr. Oliver Buchmueller, también del Departamento de Física en el Imperial College de Londres, pero con sede en el CERN, explica: “Necesitamos una buena comprensión de las colisiones comunes, de forma que podamos reconocer las inusuales cuando sucedan”. Tales colisiones son raras, pero pueden reproducirse por la física conocida. Examinamos unos 3 billones de colisiones, y encontramos 13 “similares a SUSY”, alrededor del número esperado. Aunque no se han encontrado pruebas de partículas-s, estas medidas estrechan el área de búsqueda para la materia oscura de forma significativa”.
Los físicos están esperando las ejecuciones de 2011 del LHC y CMS, que se espera que traigan datos que pudiesen confirmar la supersimetría como explicación de la materia oscura.

El experimento CMS es uno de los dos experimentos de propósito general diseñado para recopilar datos del LHC, junto con ATLAS (A Toroidal LHC ApparatuS). El Grupo de Física de Alta Energía del Imperial College ha desempeñado un papel clave en el diseño y construcción del CMS y ahora, muchos de los miembros trabajan en la misión para encontrar nuevas partículas, incluyendo la esquiva partícula del bosón de Higgs (si es que existe) , y resolver algunos de los misterios de la naturaleza, tales como de dónde procede la masa, por qué no hay antimateria en el universo, y si hay más de tres dimensiones espaciales.

"El misterio es la cosa más bonita que podemos experimentar. Es la fuente de todo arte y ciencia verdaderos". Albert Einstein

"End of transmission"


miércoles, 26 de enero de 2011

HOLLYWOOD-NASA FABRICAS DE SUEÑOS

Desde los 8 años de edad que veo peliculas y series de Ciencia Ficcion, siempre me apasiono el genero y como explique en el comienzo de mi blog, fue un estimulo para el estudio posterior de la ciencia y el cosmos. Siempre me parecio que existia una conexion entre Hollywood y la NASA, ahora son múltiples los casos en los que la creatividad de Hollywood cae rápidamente en el rango de la exageración, y con la ciencia ficción de por medio, el control sobre lo que es «científicamente correcto» se desvanece tan rápido como el humo del cigarrillo entre los dedos del guionista. De hecho, un grupo de físicos encabezados por un profesor universitario ha pedido a los productores que las películas de ciencia ficción reduzcan drásticamente sus errores en relación con las leyes de la física.

El equilibrio entre "ciencia" y "ficción" es más complejo de lo que parece, y aunque no dudamos en combinar ambas palabras para describir a un género muy importante para nosotros, cuando una de ellas trata de ubicarse por encima de la otra, los resultados suelen ser desastrosos. La NASA, ridiculizada en una cantidad significativa de filmes de ciencia ficción, toma un poco de venganza al nombrar algunas de las peores películas "científicamente absurdas" del género. ¿Y todo por qué? Porque se han hartado de explicar que en el 2012, el mundo no se va a terminar.

En muchas de ellas encontramos a la NASA, utilizada principalmente como chivo expiatorio para darle al filme una capa de "ciencia seria", cuando en realidad lo único que se logra es confirmar nuestras sospechas de estar ante una pésima película. Pero algo que recientemente ha tenido con los pelos de punta a la NASA es la necesidad de explicar una, otra, y otra vez, que nada de lo visto en la película "2012" va a suceder el año que viene. Incluso se vieron obligados a crear una página Web refutando cada uno de los hechos en el filme.

Tratando de darle un sentido más amplio a este berrinche, la NASA creó una corta lista de integrantes en la cual destaca cuáles son a su parecer los filmes más absurdos en materia científica, y como era de esperarse, "2012" fue considerada la peor de la historia. La trama implica que los neutrinos son los causantes de la destrucción de la Tierra, cuando en realidad apenas interfieren con algunas comunicaciones de radio. El resto de la lista está formada por las terribles "The Core", que hizo sentir vergüenza a Julio Verne, "Armageddon", con petroleros que destruyen asteroides, "The Sixth Day", y el "gobernator" clonado en horas, acento incluido, "Volcano", con Tommy Lee Jones apagando volcanes con mangueras, y "Chain Reaction", descubriendo el secreto de la fusión a partir del ruido generado por... un torno.

Por otro lado, la NASA también destacó aquellas películas que parecieron científicamente adecuadas, comenzando por la visión de un mundo con superpoblación en "Blade Runner", los detalles expuestos en la adaptación de "Contact", y la explicación básica pero eficiente de la genética en "Jurassic Park". Sin embargo, la más real para la NASA es "Gattaca", anticipando un futuro de control y superioridad genética, descartando a los "naturales" como seres inferiores.

Por supuesto, ningún físico puede obligar a un escritor a ser más coherente cada vez que hace una referencia a la física, pero lo cierto es que una película «científicamente correcta» no tiene por qué ser un fiasco. El primer ejemplo que nos viene a la mente es la adaptación de Stanley Kubrick de «2001: Una Odisea Espacial». La película en sí tuvo sus defensores y sus detractores, pero un punto casi imposible de cuestionar fue la precisión científica con la que se describen los viajes espaciales, aunque aún así no estuvo libre de errores menores.

"La pantalla es un medio mágico. Tiene tal poder que puede mantener el interés, ya que transmite emociones y estados de ánimo que ninguna otra forma de arte puede transmitir ". Stanley Kubrick

"End of transmission"


lunes, 24 de enero de 2011

DEBEMOS TERRAFORMAR MARTE ?

¿Podrá la gente algún día vivir al aire libre en Marte?.
Hoy, el planeta rojo es un desierto helado con una atmósfera de dióxido de carbono que es demasiado delgada como para que exista en ella agua líquida. Sin embargo, puede existir agua en los acuíferos sub-superficiales. Las imágenes tomadas por las misiones a Marte muestran lo que podrían ser canales de inundación y redes de valles que podrían tener miles de millones de años de edad, originados en un tiempo en que el agua líquida fluía por la superficie de Marte.

En esa época, Marte habría tenido una atmósfera más espesa y su clima y medioambiente habrían sido más similares a los de la Tierra. Así que, ¿dónde fueron a parar esa atmósfera y esa agua?. ¿Qué causó el cambio ambiental?. ¿Podría cambiar nuevamente?. ¿Podríamos hacer que Marte fuera nuevamente un planeta habitable, tibio y húmedo como la Tierra?. Este proceso se llama “terraformación”.

La primera tarea sería espesar la atmósfera marciana. Mucha de esa atmósfera (y del agua) se cree que se fueron congelando en las capas polares a medida que el planeta se enfriaba. Estas capas están compuestas por hielo seco (bióxido de carbono congelado) y por hielo de agua. Algo de aquella atmósfera puede estar en el permafrost debajo de la superficie. ¿Cómo podríamos hacer para evaporar las capas de hielo y comenzar a elevar la temperatura de la atmósfera?. Tanto el agua como el bióxido de carbono son gases de invernadero. Esto es, atrapan el calor de la luz solar, lo que aumentaría la temperatura superficial. Así se comenzaría un ciclo que fundiría más hielo, calentaría el planeta, e incrementaría tanto la presión del aire como la temperatura. Este proceso se volvería auto-sostenible y podría llevar a un efecto invernadero desbocado. Aún cuando aumentaría la cantidad de bióxido de carbono en la atmósfera, es un paso necesario para el incremento de la presión y de la densidad de la atmósfera.

La luz solar que cae sobre la superficie de un planeta, llega primordialmente como luz visible y ultravioleta. El planeta absorbe esta energía solar, y luego la irradia en forma de energía infrarroja hacia la atmósfera. Los gases de invernadero de la atmósfera funcionan como una capa aislante global, atrapando la radiación infrarroja e impidiendo que escape hacia el espacio.

En los años ‘70, el astrónomo Carl Sagan propuso cubrir las capas polares con un material oscuro, como el que produciría un cometa pulverizado, y con un espesor de un milímetro. Sagan estimó que se necesitarían más de 100 millones de toneladas (o un asteroide de 600 metros de diámetro) para cubrir las capas de hielo. Esta cubierta debería ser renovada cada año, a causa de las frecuentes tormentas de polvo. Como sería una tarea muy ardua, Sagan también propuso utilizar plantas que fueran capaces de crecer en el hielo.

En los ‘80, el científico planetario Chris McKay sugirió que podríamos sembrar las capas polares marcianas con plantas verdes o con microbios genéticamente alterados, que extraerían el agua líquida que necesitaran del hielo. Estos organismos serían oscuros, y así absorberían más luz solar, la que calentaría el hielo e incrementaría el ritmo de evaporación. Si la temperatura superficial fuera lo suficientemente alta, se liberaría más bióxido de carbono del suelo marciano, del permafrost y del hielo polar, y podría inundar las tierras bajas. Este proceso podría necesitar de 100 a 10.000 años.

Lo bueno de las plantas y de los microbios es que son auto-reproductivos. La investigación ha demostrado que algunos microbios pueden sobrevivir en un ambiente marciano simulado, similar a las regiones polares de la Tierra. Tales organismos se podrían extender por las capas polares en un tiempo relativamente corto. Este proceso necesitaría algunos cientos de años para liberar la antigua atmósfera marciana. El aumento de la presión y de la temperatura en la superficie permitiría entonces que el agua líquida se condensara. Habría lluvia, ríos, e incluso, tal vez, océanos. Otras planas verdes crecerían en Marte, tomando sus nutrientes del suelo y del bióxido de carbono del aire, exactamente igual a como lo hacen aquí en la Tierra.

En 1989, el científico Martyn Fogg sugirió que el bióxido de carbono podría estar localizado en las rocas carbonatadas. Propuso utilizar 10 millones de bombas de fusión para vaporizar las rocas y liberar el bióxido de carbono. En 1992, el científico Paul Birch sugirió la construcción de enormes espejos y lentes en el espacio, para que reflejaran la luz solar sobre las capas polares marcianas, y así fundirlas.

Otra posibilidad sería liberar grandes cantidades de clorofluorocarbonos (gases de invernadero) por medio de grandes fábricas en la superficie marciana. Algunos científicos creen que este proceso tomaría unos 100.000 años.

La introducción de plantas verdes tomaría algo del dióxido de carbono y produciría oxígeno, pero se necesitarían varios miles de años para hacer que la atmósfera de Marte fuera respirable tanto para los animales como para los humanos. El oxígeno produciría una capa protectora de ozono, que defendería a la superficie de los rayos ultravioleta del sol. Entonces, los animales y los insectos podrían ser introducidos en el medioambiente.

Una vez que se hubiera restaurado la mayor parte de la atmósfera marciana, la presión del aire sería lo suficientemente alta como para permitir que la gente paseara por la superficie sin necesidad de trajes espaciales. Todavía se necesitarían tanques de oxígeno y respiradores, ya que no podemos respirar bióxido de carbono. La espesa atmósfera serviría de escudo contra la radiación cósmica. Aún así necesitaríamos todavía proteger nuestra piel y nuestros ojos de los rayos ultravioleta provenientes del Sol, ya que la atmósfera carecería de una capa de ozono que nos defendiera como hace la que tenemos en la Tierra.

Para saber si la terraformación es posible, debemos aprender mucho más sobre Marte. ¿Hay suficiente atmósfera congelada? Si es así, ¿puede ser liberada?. Si encontramos que Marte tiene vida, ¿desearíamos dejar el planeta tal como está y no interferir en nada?. Si resulta que Marte carece de vida, podríamos terraformarlo y convertirnos no solo en terrestres, sino también en marcianos.

El 7 de agosto de 1996, un equipo de científicos liderados por David McKay del Centro Espacial Johnson de la NASA en Houston, Texas, anunció el descubrimiento de evidencia microscópica de un posible fósil marciano en un meteorito recuperado en la Antártida. ¿Cómo afectaría ésto la futura exploración y colonización de Marte?. ¿Cuáles son los resultados prácticos y éticos del descubrimiento de vida marciana?. ¿Cuál debería ser nuestro curso de acción con respecto a la posible vida en Marte?. ¿Cuánto tiempo y esfuerzo deberíamos gastar en busca de vida, antes de declarar que Marte carece de ella?. Al fin y al cabo, la vida marciana podría estar en cualquier parte.


Tenemos robots en la superficie, estudiandola todos los dias. Hay planes tambien para traer muestras a la tierra de rocas marcianas, pero deberemos decidir, como planeta, cuánto tiempo gastaremos en la búsqueda de vida marciana. ¿Y qué habrá sobre la contaminación, si existe la vida allí?. Eventualmente, los humanos en Marte estarán expuestos a cualquier forma de vida que haya. El regreso de las naves y de los astronautas podría introducir organismos extraterrestres en la Tierra. Muchos científicos piensan que es muy improbable que una vida que haya evolucionado en Marte en forma independiente, tuviera tanto en común con la vida en la Tierra como para causar daño; pero es imposible estar seguros.

"La Tierra es un lugar más bello para nuestros ojos que cualquiera que conozcamos. Pero esa belleza ha sido esculpida por el cambio: el cambio suave, casi imperceptible, y el cambio repentino y violento. En el Cosmos no hay lugar que esté a salvo del cambio. [Cielo e Infierno, Cosmos].". Carl Sagan

"End of transmission"



miércoles, 19 de enero de 2011

CAZADORES DE EXOPLANETAS



Los usuarios de Internet de todo el mundo serán capaces de ayudar a los astrónomos profesionales en su búsqueda de planetas similares a la Tierra, gracias a un nuevo proyecto científico Online llamado Planet Hunters (Cazadores de Planetas), en el que puede participar el público aficionado a la astronomia planetaria.
Esta iniciativa de busqueda ha sido puesta en marcha recientemente en el sitio web www.planethunters.org y se valdrá de la ayuda de voluntarios para analizar los datos reunidos por la misión Kepler de la NASA.

El telescopio espacial ha estado buscando planetas ubicados fuera de nuestro sistema solar (los llamados exoplanetas) desde su lanzamiento en Marzo de 2009. Entre los impulsores del proyecto figuran los astrónomos Kevin Schawinski, Debra Fischer y Meg Schwamb, de la Universidad de Yale.
Se cree que la misión Kepler cuadruplicará el número de planetas encontrados en los últimos 15 años.

Debido a la gran cantidad de datos que ahora están disponibles gracias a la misión Kepler, los astrónomos recurren a los ordenadores para que estos les ayuden a ordenarlos y a identificar posibles planetas. Pero los ordenadores sólo son buenos para encontrar las cosas específicas que se les enseña a buscar, mientras que el cerebro humano tiene la capacidad de reconocer patrones inesperados e inmediatamente detectar lo que es extraño o único, mucho mejor de lo que podemos enseñarles hacer a las máquinas.

Cuando los usuarios de Planet Hunters inician una sesión en la web del proyecto, se les pide que respondan a una serie de preguntas simples sobre una de las curvas de luz de las estrellas (un gráfico que muestra la cantidad de luz emitida por la estrella a lo largo de un periodo de tiempo) para ayudar a los astrónomos de la Universidad de Yale a determinar si en el gráfico aparece una atenuación repetitiva de la luz, que indicaría la presencia de un posible exoplaneta.

"La búsqueda de planetas es la búsqueda de la vida", sentencia Fischer. Y, al menos para la vida tal como la conocemos, esa búsqueda empieza por tratar de hallar un planeta similar a la Tierra, tal como acota Fischer. Los científicos creen que tales planetas son el mejor lugar para buscar vida, porque tienen el tamaño correcto y orbitan alrededor de sus respectivas estrellas a la distancia correcta para la existencia de agua líquida, un ingrediente esencial para toda forma de vida terrestre.


"Al fondo de lo desconocido para encontrar lo nuevo". Charles Baudelaire

"End of transmission"



lunes, 17 de enero de 2011

CAMBIO CLIMATICO EXTREMO



¿Las torrenciales lluvias que provocan inundaciones catastroficas en Brasil y Australia en estos momentos son causadas por el cambio climatico ?

Segun un informe de la NOAA de USA, el año 2010 estuvo marcado por varios eventos extremos de temperatura. Durante el comienzo del año, una fuerte oscilación negativa del Ártico,- un patrón climático que permite que el aire frío del Ártico se deslice hacia el sur, mientras el aire más caliente se mueve hacia el norte- trajo tormentas de nieve y récord de temperaturas frías para la mayor parte del Hemisferio Norte, incluyendo el este de América del Norte, Europa , y Asia.
El aire polar alcanzó el profundo sur de EE.UU. durante enero y febrero. Las temperaturas del océano en los Cayos de la Florida que cayeron por debajo de 15 ° C (59 ° F), blanqueando y matando los arrecifes de coral, que no puede sobrevivir a las temperatura del agua fria constante. Los expertos informaron que no habían visto un blanqueo de esta magnitud debido a las bajas temperaturas desde el invierno de 1977-1978.

De acuerdo con la Oficina Meteorológica de Reino Unido el Reino Unido experimentó su invierno más frío (diciembre 2009 a febrero 2010) desde 1978 hasta 1979. Por el contrario, el aire caliente en movimiento hacia el norte en Canadá trajo al país el invierno más cálido desde que comenzaron los registros en 1948. Regiones de Canadá, la tundra del Ártico, el Ártico y Fiordos de Montaña, y el bosque del noroeste todos tuvieron su invierno más cálido de la historia. En el Hemisferio Sur, de acuerdo con la Oficina de Meteorología BoM de Australia , el país experimentó su verano más cálido (invierno del hemisferio norte) de la historia, con temperaturas promedio de 0,2 ° C (0.4 ° F) más altas que el récord anterior establecido durante el verano de 1997/98.

Varias olas de calor excepcionales se produjeron durante el año 2010, originando records de altas temperaturas que afectaron a decenas de millones de personas. Las condiciones cálidas estuvieron presentes en toda la India durante el mes de abril. El 18 de abril, Delhi registró su temperatura más alta desde abril 1958, cuando la temperatura se elevó a 43,7 ° C (110,7 ° F). Otra ola de calor asó el norte de la India y Pakistán a finales de mayo. Según el Servicio Meteorológico de Pakistán , una temperatura máxima de 53,5 ° C (128,3 ° F) se registró en Mohenjo-Daro el 26 de mayo. Esta fue la temperatura más alta jamás registrada en Pakistán y la más cálida registrada en Asia desde 1942.

A mediados de junio, una ola de calor azotó el oeste de Rusia durante dos largos meses sin precedentes en la zona. El 29 de julio, el Observatorio de Moscú registró su temperatura más alta de la historia, 38.2 ° C (100,8 ° F), rompiendo el récord anterior de 37,2 ° C (98,9 ° F) alcanzado sólo cuatro días antes. Antes de 2010, la temperatura más alta en Moscú fue de 36,8 ° C (98,2 ° F), alcanzada hace 90 años. Ese mismo día, Finlandia registró su temperatura más alta, el mercurio llegó a 37.2 ° C (99,0 ° F) en Joensuu, rompiendo el récord anterior establecido en Turku en julio de 1914 con 1,3 ° C (2.3 ° F) más alta. La ola de calor masivo causó a Rusia el verano más cálido (junio-agosto) registrado. Por lo menos 15.000 muertes en Rusia se atribuyeron al calor.

El calor extremo del verano se hizo sentir en otras áreas alrededor del mundo. De acuerdo con el el Centro del Clima de Beijing , China experimentó su verano más caluroso registrado desde 1961. Y la Agencia Meteorológica de Japón informó que el país tuvo su verano más cálido desde que comenzaron los registros en 1898. En promedio, las temperaturas en todo Japón fueron 1.64 ° C (2,96 ° F) mayores que el promedio 1971-2000. Según Medio Ambiente de Canadá , Canadá tuvo su tercer verano más caluroso desde que los registros nacionales comenzaran en 1948, detrás de 1998 (más caliente) y 2006 (segundo más caluroso). De hecho, el período de enero-agosto el período de Canadá más cálido de la historia. En cambio, Australia vivió su invierno más fresco en (verano del Hemisferio Norte) en 13 años.

En septiembre una ola de calor abrasador en una del oeste de los EE.UU. trajo al centro de Los Ángeles, California, su temperatura más alta nunca registrada, el día 27. Se registró una temperatura de 45 ° C (113 ° F) , rompiendo el récord anterior de 44,4 ° C (112 ° F), alcanzado el 26 de junio de 1990.

Al igual que en el comienzo del año, diciembre se caracterizó por una fuerte fase negativa de la Oscilación del Ártico. Según la Oficina Meteorológica del Reino Unido , durante el mes de diciembre, el Reino Unido fue, en promedio, alrededor de 9º F (5 ° C) por debajo de la media de 1971-2000, por lo que fue el diciembre más frío en más de 100 años. También fue el mes más frío registrado desde febrero de 1986. Los Estados Unidos en su conjunto experimentaron su séptimo diciembre con más nieve, mientras que el sureste tuvo su tercer diciembre más frío. La Oscilación del Ártico negativa también contribuyó a la menor extensión del hielo del mar Ártico de diciembre, de acuerdo con el Centro Nacional de Datos de Nieve y Hielo .

La Niña influyó en los patrones de precipitación en Australia durante la última parte del año. Las fuertes lluvias en todo el país trajo temperaturas más frías, lo que lleva a la cuarta primavera más fresca de la historia del país (septiembre-noviembre; Hemisferio Norte) . A nivel nacional las temperaturas máximas fueron 1,23 ° C (2.21 ° F) por debajo de lo normal, la más baja desde 1999. Diciembre con la temperatura media 1,35º C; (2,43 ° F) por debajo de lo normal, fue el segundo diciembre más frío, por detrás de 1999. En general, fue el año más frío de Australia desde 2001, pero seguía estando 0,19 ° C por encima de la media de 1961-1990. En una escala de décadas, los años 2001-2010 fueron la década más cálida para el país.

El Instituto Meteorológico de Finlandia informó de que 2010 fue año más frío de Finlandia desde 1987, 0,6 ° C inferior a la media. El Instituto también informó de que el decenio 2001-2010 fue más cálido que las décadas anteriores para el país, con registros que datan de la década de 1840. La temperatura promedio de esta década fue de 0.30 ° C por encima de la media de la década de 1930, anterior década más cálida en Finlandia. Además, las temperaturas de cada estación del año (período de tres meses) promediada durante la década fue una de las dos estaciones más cálidas en los últimos 160 años, con más calentamiento en invierno
La precipitación global en 2010 fue muy superior al promedio 1961-1990, ubicándose como el más húmedo registrado desde 1900. Precipitaciones durante todo el año fue variable en muchas áreas. A nivel regional, más seco que las condiciones medias fueron generalizadas en gran parte de la Polinesia francesa, las Islas Salomón, Islas de Hawai, el noroeste de Canadá, extremo noroeste y el noreste de Brasil y el sur de Perú. Las regiones más húmedas incluyeron la mayor parte de América Central, gran parte de la India, el suroeste de China, Sureste de Asia, Borneo, y partes de Australia.

El Niño y La Niña, las lluvias monzónicas y las tormentas tropicales desempeñaron un papel importante en algunos de los patrones de precipitaciones extremas observadas durante el 2010 año hasta la fecha. Durante el año, numerosos ciclones tropicales trajeron grandes cantidades de lluvia en distintas regiones de todo el mundo, incluyendo el norte
de Australia, el sur y el este de Asia, México, y la mayor parte de América Central.
Canadá experimentó su invierno , muchos lugares en Ontario, Canadá no recibieron ningún rastro de nieve en marzo de 2010, estableciendo nuevos récords de bajas nevadas. En la ciudad de Toronto, que normalmente recibe 22 cm (8,7 pulgadas) de nieve en marzo no se registraron nevadas este año. Esto rompió el récord de poca nieve que data ya desde 1898. Hacia el oeste, Alaska tuvo su tercer enero más seco, sobre registro desde 1918.

Tras su febrero y marzo más seco, la sequía fue declarada de Auckland, Nueva Zelanda y sus alrededores. La sequía continuó en Nueva Zelanda y el país en su conjunto, durante el otoño (marzo-mayo, la primavera del Hemisferio Norte) la precipitación fue 50-80% inferior a la media.

Cerca del final de julio, el mismo patrón de bloqueo que llevó a Rusia su ola de calor sin precedentes contribuyó a una avalancha de fuertes precipitaciones en Pakistán. Más de 300 mm de lluvia cayeron del 28 al 30 de julio en la provincia de Peshawar, dando lugar a inundaciones extremas que sumergieron aproximadamente 20 por ciento del país. Un funcionario del gobierno de Pakistán informó de la inundación fue la peor desde 1929. Al menos 1.500 personas murieron debido a las inundaciones y deslizamientos de tierra. Monzones más fuertes de lo normal continuaron en septiembre, afectando tanto a Pakistán y la India. Por el contrario, Bangladesh tuvo su temporada más seca del monzón desde 1994.

Una serie de fuertes tormentas trajeron fuertes lluvias al noreste de China y Corea del Norte durante el mes de agosto. Las inundaciones posteriores fueron las peores en la región en más de una década. Las intensas lluvias monzónicas afectaron a Vietnam, Tailandia y el sureste de China en octubre. Tailandia sufrió las peores inundaciones en décadas.

En octubre, el norte de Brasil y el oeste la Amazonia se encontraba en medio de una de sus peores sequías en 40 años. El Río Negro, uno de los afluentes más importantes del Amazonas cayó a su nivel más bajo desde que comenzaron a llevarse registros en 1902.
En Julio en pleno invierno en Buenos Aires, Argentina, la temperatura cayo a -1.5 º C (29F) siendo esta la temperatura mas fria en los ultimos 10 años. En Lima, Peru por su parte la temperatura cayo a 8º C (46F) siendo record de temperatura fria en 46 años.

La Niña trajo lluvias récord para la mayor parte de Australia hacia el final del año. El país tuvo su primavera más lluviosa de la historia. A nivel nacional el promedio de precipitaciones fue 163.0 mm, que fue de 125% por encima de lo normal para el período. Sin embargo, cabe señalar que, en contraste el resto del país, el suroeste de Australia Occidental tuvo su primavera más seca de la historia. La humedad extrema continuó en diciembre, especialmente en el nororiental estado de Queensland, con en diciembre más lluvioso registrado y experimentaron la mayor inundación,la precipitación para diciembre fue de 99% por encima lo normal, situándose como Australia el segundo diciembre más lluvioso de la historia, detrás de diciembre de 1975.
El año 2010 fue el tercero más lluvioso desde que comenzaron los registros en 1900 y el más húmedo desde 2000. El Suroeste de Australia Occidental informó de su año más seco de la historia.



El año 2010 empatado con el 2005 como el año más cálido desde que comenzaron los registros en 1880. El informe anual combinado de la tierra global y temperatura de la superficie del océano fue 0.62 ° C (1,12 ° F) por encima de la media del siglo XX .

"El calentamiento del planeta es uno de esos casos en que la comunidad científica siente mas miedo que la población en general".

"End of transmission"

miércoles, 12 de enero de 2011

TORMENTAS DE ANTIMATERIA EN LA TIERRA

El telescopio espacial Fermi de la NASA ha descubierto que las tormentas de la Tierra lanzan al espacio haces de antimateria. Estas partículas, que funcionan como la imagen ante el espejo de la materia -por ejemplo, un antielectrón, también conocido como positrón, no es más que un electrón con carga positiva- y que los científicos creen que ayudaron a formar el Universo tal y como lo conocemos, se originan en un destello de rayos gamma, una breve explosión que parece estar relacionada con los relámpagos. Los científicos estiman que se producen unos 500 estallidos como estos cada día, pero la mayoría no son detectados.
El hallazgo ha sido presentado durante la reunión de la Sociedad Astronómica Americana en Seattle y será publicado en la revista Geophysical Research Letters.

«Estas señales son la primera evidencia directa de que las tormentas crean haces de partículas de antimateria», explica Michael Briggs, miembro del equipo del Monitor de Estallidos de Rayos Gamma de Fermi en la Universidad de Alabama en Huntsville.

El telescopio está diseñado para seguir los rayos gamma, la forma de luz de mayor energía. Cuando la antimateria colisiona con una partícula de materia normal, ambas partículas inmediatamente se aniquilan y se transforman en rayos gamma. El detector del Fermi ha encontrado rayos de este tipo con energías de 511.000 electronvoltios, una señal que indica que un electrón ha encontrado a su homólogo en la antimateria, el positrón.

Fermi vigila constantemente todo el cielo. «En órbita durante menos de tres años ha demostrado ser una asombrosa herramienta para estudiar el Universo», apunta Ilana Harrus, investigadora del programa Fermi en las oficinas centrales de la NASA en Washington. «Ahora sabemos que también puede ser clave en misterios que están mucho más cerca de casa».


En la mayoría de los destellos de rayos gamma observados, la nave permanecía situada justo por encima de la tormenta, pero en cuatro casos se encontraba bastante lejos, a muchos kilómetros de distancia de los rayos. Por ejemplo, durante uno de estos casos, ocurrido el 14 de diciembre de 2009, Fermi se situaba en órbita sobre Egipto. Sin embargo, la tormenta activa azotaba Zambia, a unos 4.500 kilómetros al sur. «Aunque Fermi no podía ver la tormenta, la nave estaba magnéticamente conectada a la misma», explica Joseph Dwyer, del Instituto Tecnológico en Melbourne, Florida.

La detección de positrones demuestra que muchas partículas de alta energía son expulsadas desde la atmósfera. De hecho, los científicos creen que todos los rayos gamma emiten haces de electrones y positrones. Sin embargo, «aún tenemos que descubrir qué es lo que hace que estas tormentas sean especiales y qué papel desempeñan los rayos en el proceso», reconoce Steven Cummer, de la Universidad de Duke.

La antimateria puede explicarse como la imagen ante el espejo de la materia. Por ejemplo, un átomo de antihidrógeno -que los científicos ya han conseguido capturar- tendría las mismas propiedades y componentes que uno de hidrógeno, pero con la carga eléctrica opuesta. Cuando la materia y la antimateria entran en contacto se aniquilan mutuamente, un proceso que los científicos creen ocurrió instantes después del Big Bang y que ayudó a formar el Universo tal y como lo conocemos. En ese momento, prevaleció la materia y sólo quedó una pequeñísima parte de antimateria en el Cosmos, muy difícil de detectar y más aún de capturar.

"El microscopio empieza donde el telescopio termina". Victor Hugo

"End of transmission"


lunes, 10 de enero de 2011

KEPLER-10b EXOPLANETA ROCOSO



Otra buena noticia nos trae este año 2011. El telescopio espacial Kepler de la NASA ha encontrado al planeta más pequeño detectado hasta ahora fuera del Sistema Solar. Se trata de Kepler-10b, un exoplaneta rocoso de un tamaño similar a una Tierra y media.


El planeta está ubicado en la constelación del Cisne, a unos 560 años luz de la Tierra.

El descubrimiento ha sido posible gracias a los datos recogidos por el telescopio espacial durante más de ocho meses, desde mayo de 2009 hasta principios de enero de 2010.
“Las mejores capacidades de Kepler han convergido para aportar la primera evidencia sólida de un planeta rocoso que gira alrededor de una estrella que no es nuestro Sol —dice Natalie Batalha, delegada jefa del equipo científico de la misión Kepler en el Ames Research Center de la NASA, en Moffett Field, California (EE UU), y autora principal aceptado por la revista Astrophysical Journal.

El fotómetro ultrapreciso de la nave puede medir las pequeñas disminuciones que se producen en el brillo de una estrella cuando un planeta cruza por delante de ella. El tamaño del planeta se puede inferir de estas caídas periódicas en el brillo. Y la distancia entre el planeta y la estrella se calcula midiendo el tiempo entre descensos sucesivos mientras el planeta gira alrededor de la estrella.

Kepler es la primera misión de la NASA capaz de encontrar planetas del tamaño de la Tierra en o cerca de la zona habitable (la región en un sistema planetario en la cual puede existir agua líquida en la superficie del planeta). Sin embargo, puesto que describe su orbita una vez cada 0,84 días, Kepler-10b se encuentra a más de veinte veces más cerca de su estrella que Mercurio de nuestro Sol y no en la zona habitable.

Kepler-10 fue la primera estrella identificada que podría albergar un pequeño planeta en tránsito, con lo que se colocó a la cabeza de la lista de observaciones basadas en tierra con el telescopio de 10 metros del W. M. Keck Observatory, en Hawái (EE UU). Así se pudo medir pequeños cambios en el espectro de la estrella (efecto Doppler) causados por el revelador tirón ejercido por el planeta que giraba alrededor de la estrella.

“El descubrimiento de Kepler-10b, un auténtico planeta rocoso, es un hito importante en la búsqueda de planetas similares al nuestro —dice Douglas Hudgins, del programa científico de la misión Kepler en las oficinas centrales de la NASA en Washington—. A pesar de que no se encuentre en la zona habitable, el emocionante hallazgo muestra el tipo de descubrimientos realizados gracias a la misión y la promesa de que vendrán muchos más”.

Batalha añade: “Nuestro conocimiento del planeta es tan bueno como el conocimiento de la estrella en torno a la que gira”. Debido a que Kepler-10 es una de las más brillantes estrellas objetivo de la misión Kepler, los científicos han sido capaces de detectar variaciones de alta frecuencia en el brillo de la estrella generadas por las oscilaciones estelares, o terremotos estelares. “Este es el análisis que realmente nos ha permitido precisar las propiedades de Kepler-10b”.

“Tenemos una señal clara en los datos de las ondas de luz que viajan dentro del interior de la estrella”, comenta Hans Keldsen, astrónomo del Kepler Asteroseismic Science Consortium en la Universidad de Aarhus, Dinamarca. Los científicos de este centro utilizan la información para comprender mejor la estrella, del mismo modo que los terremotos se utilizan para aprender acerca de la estructura interior de la Tierra. “Como resultado de este análisis, Kepler-10 es una de las estrellas que pueden albergar planetas mejor caracterizadas en el universo cerca de nuestro Sol”, apunta Kjeldsen.

En el caso de Kepler-10b, el panorama que se dibuja es el de un planeta rocoso con una masa de 4,6 veces la de la Tierra y con una densidad media de 8,8 gramos por centímetro cúbico (similar a la de una pesa de gimnasia de hierro).

"A veces creo que hay vida en otros planetas, y a veces creo que no. En cualquiera de los dos casos la conclusión es asombrosa". Carl Sagan

"End of transmission"


lunes, 3 de enero de 2011

LA FISICA DETRAS DE TRON

En las dos secuelas de las peliculas: Tron (1982) y Tron El Legado (2010) se digitaliza y teletransporta un ser humano, pero que hay de cierto detras de la fisica aplicada en Tron ?

El sueño de la fantasia cientifica de transportar seres de un lugar a otro todavia no se ha hecho realidad, pero ¿ quien se atreve a adivinar lo que nos depara el futuro ? Podriamos usar las tecnicas existentes para teletransportar estados elementales, como los de los fotones, a traves de distancias de unos kilometros y puede que hasta a un satelite. Disponemos ya de los recursos tecnicos para teletransportar estados de atomos sueltos, sin ir mas lejos, el grupo dirigido por Serge Haroche, de la Escuela Normal Superior de Paris, ha realizado un entrelazamiento de atomos. Parece razonable esperar que, de aqui a diez años, se logre el entrelazamiento de moleculas y su subsiguiente teletransporte. Lo que venga luego, nadie lo sabe.

Mas plausible se ve la aplicacion del teletransporte a la computacion cuantica, donde el concepto comun de bits (ceros y unos ) se generaliza y convierte en el de qubits, que pueden existir como superposiciones y entrelazamientos de ceros y unos. Podria emplearse el teletransporte para transferir informacion cuantica entre procesadores cuanticos. Los teletransportadores cuanticos podrian servir, ademas, para construir un computador cuantico.

Un computador cuantico puede funcionar como una superposicion de muchos datos de entrada a la vez. Puede, por ejemplo, ejecutar un algoritmo simultaneamente sobre un millon de datos de entrada utilizando solo tantos qubits como bits necesitaria un computador ordinario para ejecutar el algoritmo una sola vez sobre un solo dato de entrada. Los algoritmos que se ejecutan con computadores cuanticos pueden resolver ciertos problemas mas deprisa ( con menos pasos de computacion) que cualquier algoritmo conocido ejecutado en un ordenador clasico. Entre esos problemas estan el de encontrar un determinado elemento de una base de datos y el de obtener la factorizacion de numeros grandes, de sumo interes en el desciframiento de codigos secretos.

Por ahora solo se han construido los elementos mas fundamentales de los computadores cuanticos: puertas logicas que procesan uno o dos qubits. La construccion, siquiera sea a pequeña escala, de un computador cuantico queda aun lejos. Habra que resolver el problema de la transferencia fiable de los datos cuanticos entre los diferentes procesadores o puertas logicas, sea
dentro de un solo computador o a traves de redes cuanticas. La llave de la solucion podria esconderse en el teletransporte cuantico.

Daniel Gottesman, de Microsoft e Isaac L. Chuang de IBM, han demostrado hace poco que se puede construir un computador cuantico polivalente con tres componentes basicos: particulas entrelazadas, teletransportes cuanticos y puertas que manejen un solo qubit por vez. Este resultado ofrece un metodo sistematico de construir puertas de dos qubits. El truco para construir una puerta de dos qubits con un teletransportador consiste en teletransportar dos qubits desde lo que entra en la puerta hasta lo que sale, por medio de pares entrelazados modificados de una manera muy determinada. Los pares entrelazados se modifican de suerte tal, que la salida de la puerta reciba los qubits adecuadamente procesados. La ejecucion de la logica cuantica en dos qubits desconocidos se reduce pues a preparar unos estados entrelazados predefinidos concretos y teletransportarlos.

La mecanica cuantica es una de las teorias mas profundas jamas descubiertas. Los problemas que plantea a nuestra percepcion intuitiva del mundo llevaron a Einstein a criticarla con energia.
Para el, la fisica debia constituir una tarea de comprension de la realidad objetiva, independientemente del observador. Lo que no le impidio percatarse de que nos enfrentabamos ante grandes problemas al querer asignar esa realidad fisica independiente a cada miembro de un par entrelazado. Su antagonista, Niels Bohr, le replico que habia que tomar en cuenta el sistema entero, en el caso de un par entrelazado, la disposicion conjunta de ambas particulas. El desideratum de Einstein, el estado real independiente de cada particula, carece de significado para un sistema cuantico entrelazado.

El teletransporte cuantico desciende directamente de las situaciones estudiadas por Einstein y Bohr. Siguiendo a Bohr, entenderemos la mecanica cuantica si advertimos que la ciencia no describe como es la naturaleza , sino que expresa lo que podemos decir de esta.
Ahi reside el verdadero valor de los experimentos, como el teletransporte, que investiga los fundamentos de la mecanica cuantica y que nos ayuda a tener un conocimiento mas profundo del misterioso mundo cuantico.

"Fin de impresión- Control Central de Programas". Tron

"End of transmission"


sábado, 1 de enero de 2011

MARTE EN LA TIERRA


Comenzamos el 2011 con muy buenas noticias !!!! .Científicos de Chile y otros países construirán una base en el desierto de Atacama, el más árido del mundo, para simular una colonia espacial, plataformas de lanzamientos móviles e invernaderos como si se estuviera viviendo sobre el mismísimo planeta Marte (foto Atacama y Marte). La información, difundida por el diario El Mercurio de Chile, detalla que se trata del Centro de Investigación Luna-Marte, un complejo científico, tecnológico y turístico que será emplazado en una zona reconocida por la comunidad científica internacional como una de las más parecidas a Marte en la Tierra: con radiación solar y temperaturas extremas, baja humedad y además fuertes vientos.

La base se levantará en el llano de Chajnantor, situado a 55 kilómetros al este de la localidad de San Pedro de Atacama, a 5.150 metros de altura y a unos 1.650 kilómetros al noreste de Santiago.
En el lugar, el Observatorio Europeo Austral (ESO, por su sigla en inglés) construye junto a sus socios internacionales el Atacama Large Millimeter/submillimeter Array (ALMA), un telescopio de vanguardia para estudiar la luz de algunos de los objetos más fríos en el Universo. La académica de la Universidad de Antofagasta y una de las coordinadoras chilenas del proyecto, Carmen Gloria Jiménez, explicó que hay experiencias previas en Utah, Estados Unidos, y en la isla Devon, en el Artico canadiense.

La científica señaló que se construirán los primeros laboratorios, usando como materiales los fuselajes de aviones Hércules, en el que se estudiarán microorganismos denominados extremófilos , entre otros, que han sobrevivido al menos 26.000 años en volcanes, salares y lagunas cercanas, como Licancabur y Ascotán.

Afirmó que también se trabajará con operadores turísticos, universidades e industrias mineras para patentar innovaciones tecnológicas. Entre los impulsores del proyecto están la NASA, Mars Society, el Instituto SETI, la agencia espacial de China y más de 40 empresas que prestan servicios a la investigación y carrera espacial estadounidense.

Fernando Ardenes, asesor de la Agencia Chilena del Espacio, explicó que “la idea es empezar a trabajar en las plataformas en 2011 y hacer actividades relacionadas con la educación, investigación y transferencia de la tecnología geoespacial para agricultura y vitivinicultura” . Indicó que en Marzo próximo visitaría la zona una delegación de la agencia espacial de China, que proyecta contar hacia 2020 con bases subterráneas en la Luna para extraer minerales. En Abril, un grupo de la NASA llegará a Chajnantor, un sitio muy seco y agreste para la vida pero excelente para investigaciones astronómicas.

"La inteligencia de un cientifico es como agua en el desierto ".

"End of transmission"