jueves, 26 de diciembre de 2013

UNA PARTICULA EN LA OSCURIDAD



El objetivo del Experimento Axión Materia Oscura, organizado y conducido por el equipo del físico Leslie Rosenberg, es la búsqueda de axiones de materia oscura fría en el halo de la Vía Láctea, intentando detectar para ello la muy débil conversión de axiones en fotones de microondas.
El que probablemente sea el detector de axiones más sensible del mundo, está instalado en el Centro de Física Nuclear Experimental y Astrofísica de la Universidad de Washington en Seattle, Estados Unidos. Aunque ya funciona, todavía se halla en fase de pruebas, si bien comenzará pronto a intentar captar lo desconocido, manifestado en este caso como la interacción muy débil entre el hipotético axión y la radiación electromagnética.
El detector emplea un potente electroimán superconductor instalado alrededor de un receptor de microondas de alta sensibilidad que es mantenido a 269 grados centígrados bajo cero. Esa temperatura tan fría reduce el "ruido" térmico e incrementa enormemente las probabilidades de que el detector capte axiones convirtiéndose en fotones de microondas. El receptor de microondas puede ser ajustado a la masa del axión, lo cual también aumenta las probabilidades de detectar una interacción entre los axiones y el campo magnético del detector. Una reacción depositaría en el receptor una cantidad de energía electromagnética minúscula pero detectable y delatadora, que sería registrada por los ordenadores que monitorizan al detector.En la comunidad científica se planteó por vez primera la existencia del axión a finales de la década de 1970. Se supone que esta partícula reacciona gravitacionalmente con la materia, aunque no parece tener otras interacciones.

Los axiones, si es que existen, deben tener una masa muy baja. Si asumimos que la masa está directamente relacionada con la energía, se requiere muy poca energía para producir axiones.
En la física cuántica, cada partícula es descrita como una onda. La longitud de onda corresponde a la energía de la partícula. Partículas pesadas tienen longitudes de onda pequeñas, pero los axiones, de baja energía, podrían tener longitudes de onda de muchos kilómetros.
Se ha especulado asimismo con que los axiones pueden acumularse alrededor de un agujero negro y extraer energía de la acción de éste.
La materia oscura es una clase exótica de materia que pasa del todo desapercibida excepto por su supuesta influencia gravitacional. Los científicos llegaron a la conclusión años atrás de que hay materia extra y oculta, distribuida de un modo que tampoco se corresponde con la simple presencia de agujeros negros convencionales, y que es la responsable de que las galaxias no se fragmenten en tiras cuando giran sobre sí mismas. Las galaxias generan una importante fuerza centrípeta durante su rotación. La gravedad es el pegamento que contrarresta esa fuerza y mantiene a las estrellas y a los planetas juntos dentro de sus galaxias, pero no hay suficiente materia visible en el universo para generar la cantidad de gravedad necesaria para evitar que las galaxias se disgreguen en jirones.

Además de extraña e "invisible", la materia oscura es abundante. Se calcula que la gran mayoría de la materia en el universo (más de las tres cuartas partes) se compone de ese material "oscuro" que no parece emitir radiación electromagnética. De la naturaleza de la materia oscura no se sabe casi nada. Las conjeturas sobre la misma se pueden agrupar en dos teorías principales. Una de ellas, en los últimos tiempos la favorita, es la de la materia oscura fría, y fue propuesta a mediados de la década de 1980. Esta teoría sostiene, entre otras cosas, que inmediatamente después del Big Bang, las partículas de materia oscura adoptaron velocidades bajas.

La teoría de la materia oscura caliente es parecida, aunque defiende que tras el Big Bang las partículas de materia oscura mantuvieron velocidades relativamente altas. Con uno u otro tipo de materia oscura en escena, la evolución inicial del universo pudo ser muy diferente. Por ejemplo, según unas simulaciones informáticas sobre la formación de las primeras estrellas del universo, que fueron realizadas en 2007 por un equipo del Instituto de Cosmología Computacional de la Universidad de Durham, para las partículas de materia oscura fría, de movimiento lento, las primeras estrellas se formaron aisladas unas de otras, con sólo una única estrella de gran masa por cada concentración esférica de materia oscura. En cambio, para la materia oscura caliente, de rápido movimiento, una gran cantidad de estrellas de tamaños diferentes se formaron en la misma época, en un gran episodio de formación de estrellas.

Información adicional: http://www.washington.edu/news/2013/11/06/a-shot-in-the-dark-detector-at-uw-on-the-hunt-for-dark-matter/


"Para quienes no ansían sino ver, hay luz bastante; más para quienes tienen opuesta disposición, siempre hay bastante oscuridad".  Blaise Pascal

"End of transmission".









martes, 10 de diciembre de 2013

LA DESINTEGRACION DE LA PARTICULA





La colaboración internacional del experimento ATLAS del Gran Colisionador de Hadrones (LHC) acaba de hacer públicas las primeras evidencias de la desintegración del recién descubierto bosón de Higgs en dos partículas denominadas tau, pertenecientes a la familia de partículas que compone la materia que vemos en el universo. Hasta ahora los experimentos del LHC habían detectado la partícula de Higgs mediante su desintegración en otro tipo de partículas denominadas bosones, portadoras de las fuerzas que actúan en la naturaleza, mientras las evidencias de desintegraciones en fermiones no eran concluyentes. Esta es la primera evidencia clara de este nuevo modo de desintegración del bosón de Higgs.

Los miembros de la colaboración ATLAS presentaron los nuevos resultados en un seminario en el CERN el pasado 26 de noviembre. En ellos se muestra por primera vez con un nivel de certeza de 4 sigma - lo necesario para proclamar una genuina observación es 5- al bosón de Higgs decayendo en dos leptones tau (representados por la letra del alfabeto griego τ). Es la primera vez que se ha medido este fenómeno en el bosón de Higgs.
El bosón de Higgs es la partícula descubierta en 2012 por los experimentos ATLAS y CMS del LHC que revela la existencia de un nuevo campo de fuerza en la Naturaleza. También llamado mecanismo de Brout-Englert-Higgs en honor a los físicos que lo propusieron (dos de ellos, Englert y Higgs, galardonados con el Nobel de Física y el Príncipe de Asturias de Investigación). Este campo de fuerza es responsable del origen de la masa de otras partículas elementales. Sin este mecanismo para generar la masa, la materia que compone todo lo que vemos en el Universo y a nosotros mismos no se hubiera podido formar tal y como la conocemos.

Se sabía que la partícula de Higgs se desintegra en uno de los dos tipos básicos de partículas que existen: los bosones, responsables de las interacciones (fuerzas) que se producen en la naturaleza. El mecanismo de Brout-Englert-Higgs se propuso para explicar el origen de la masa de este tipo de partículas. Sin embargo, el modelo estándar de la física de partículas, la teoría que describe las partículas elementales y sus interacciones, postulaba que el otro tipo básico de partículas, los fermiones, también adquirían su masa por este mecanismo. Ahora es la primera vez que los científicos han visto claramente que el bosón de Higgs se desintegra también en este tipo de partículas, los fermiones, los 'ladrillos' que componen la materia visible en el Universo (por ejemplo, los electrones y los quarks que componen los protones de un átomo son fermiones). De hecho, los resultados obtenidos por los científicos del experimento ATLAS son compatibles con las predicciones del modelo estándar.
Estos resultados se han obtenido con los datos recopilados en 2012. A partir de su puesta en marcha en 2015 tras dos años de mantenimiento, los científicos esperan obtener muchos más datos del LHC, funcionando además a la energía para la que se diseñó. 
¿Qué nuevos descubrimientos nos deparara el colisionador en este espacio-tiempo...?.

"Toda gran pasión desemboca en lo infinito."

"End of transmission".











miércoles, 27 de noviembre de 2013

ALERTA: NEUTRINOS DETECTADOS



En el mismísimo Polo Sur, junto a la base científica estadounidense Amundsen Scott, está incrustado, en un kilómetro cúbico de hielo, el detector IceCube, cuya función es captar estas partículas elementales generadas fuera del Sistema Solar, los llamados neutrinos cosmológicos o astrofísicos. Los científicos de este peculiar telescopio anuncian ahora, en la revista Science, que han captado un total de 28 neutrinos de altísima energía y propiedades específicas que permiten descartar que puedan haberse producido en el Sol o en la atmósfera terrestre. “Es el amanecer de una nueva era de la astronomía”, afirma el científico estadounidense Francis Halzen, científico de Universidad de Wisconsin-Madison, responsable y padre del IceCube.

Los científicos todavía no pueden señalar los fenómenos concretos que emitieron esos neutrinos detectados en la Antártida, dado que el flujo es pequeño todavía, pero las teorías indican que deben proceder de explosiones estelares de supernova, de agujeros negros, de galaxias activas o de otros fenómenos extremos.


Miles de millones de neutrinos pasan por cada centímetros cuadrado de la Tierra –y por el cuerpo de cada uno de nosotros- cada segundo. Como si nada. Estas partículas apenas interaccionan con la materia así que la atraviesan sin inmutarse y como son neutras, no se desvían por los campos magnéticos. Pero se generan en procesos físicos fundamentales y en cantidades ingentes. La inmensa mayoría de los neutrinos que nos atraviesan imperceptiblemente se generan en el Sol o en las interacciones de los rayos cósmicos en la atmósfera y en la radiactividad natural. También se producen en los reactores nucleares y en aceleradores de partículas, como el PS del CERN (Laboratorio Europeo de Física de Partículas).

Como son tan fantasmagóricas, lograr detectar estas partículas sin apenas masa y viajando casi a la velocidad de la luz exigen auténticas proezas tecnológicas y mucha imaginación por parte de los científicos. El IceCube está formado por 86 cables en los que están montados 5.160 módulos ópticos capaces de ver minúsculos destellos de luz azul (nominada Cherenkov) emitida cuando, muy de vez en cuando, un neutrino interactúa con el hielo. Esos 86 cables están distribuidos en un kilómetro cúbico de hielo de la Antártida a una profundidad entre 1.450 y 2.450 metros de profundidad. Siete años se tardó en construir el peculiar telescopio en las condiciones extremas del Polo Sur, incluyendo la instalación de todos los dispositivos electrónicos y transmisión de datos que se envían directamente desde la Antártida a la Universidad de Wisconsin-Madison, en Estados Unidos, para su análisis.


“Esta es la primera indicación de neutrinos de muy alta energía procedentes de fuera del Sistema Solar, con energías más de un millón de veces superiores a la de los neutrinos observados en 1987 relacionados con una supernova que se vio en la galaxia Gran Nube de Magallanes”, explica Halzen. Los neutrinos de aquella supernova, 1987A, pasaron a la historia de la ciencia ya que fueron los primeros que se lograron asociar directamente a un fenómeno así y proporcionaron importantísima información, no solo sobre la estrella que explotó en supernova (debió acabar en agujero negro) sino también sobre los mismos neutrinos.
“Los neutrinos son mensajeros excepcionales de los fenómenos de más alta energía del universo porque, a diferencia de la luz, escapan fácilmente de entornos extremadamente densos".


"En la escala de lo cósmico sólo lo fantástico tiene posibilidades de ser verdadero". Pierre Teilhard de Chardin

Información adicional:  http://icecube.wisc.edu/news/view/171









viernes, 22 de noviembre de 2013

EL LEGADO DE CAMELOT SIGUE VIGENTE



Hoy hace 50 años moría asesinado John F. Kennedy. Recuerdo que al salir de mi segundo grado de la escuela primaria, mi madre me comentó la noticia con lágrimas en sus ojos. Ella como casi todas las madres que recogían a sus hijos ese día escolar estaban muy compungidas con la terrible noticia, ya que para todos nosotros era el líder indiscutido de Occidente, inspirador de la libertad del individuo, los derechos civiles y la carrera espacial.

Anteriormente el 12 de setiembre de 1962, el presidente Kennedy daba un discurso en la Universidad Rice sobre el Esfuerzo Espacial Nacional de su país. Reflexionaba así: “¿Pero por qué - algunos dicen - la Luna? ¿Por qué elegir esto como nuestra meta? Y ellos muy bien podrían preguntar ¿por qué escalar la montaña más alta? ¿Y por qué - 35 años atrás - volar a través de el Atlántico?.Y respondía: “Nosotros elegimos ir a la Luna. Nosotros elegimos ir a la Luna y hacer las otras cosas, no porque son fáciles, sino porque son difíciles”.  



En materia espacial, el mayor especialista de los Estados Unidos era sin duda Wernher von Braun. Por lo que ahora el espacio estaba abierto a los estadounidenses, y según su presidente, el entusiasmo de ellos para compartir su significado no estaba gobernado por los esfuerzos de otros. Decía que los Estados Unidos iban al espacio porque las personas libres debían participar completamente de lo que sea que la Humanidad deba realizar.
Por tanto, Kennedy pidió al Congreso, por encima y además de los aumentos que él mismo anteriormente había pedido para las actividades espaciales, que proveyese los fondos que se necesitaban para alcanzar determinadas metas nacionales. Y en primer lugar, Kennedy creía que su nación debía comprometerse a conseguir la meta, antes de que terminase esa década, de aterrizar una persona en la Luna y retornarlo de vuelta con seguridad a la Tierra. “Pero en un sentido muy real, no será solo una persona yendo a la Luna” concluyó en un Mensaje Especial al Congreso de su país en Washington, D. C., sobre Necesidades Nacionales Urgentes, sino que “será una nación entera, porque todos nosotros deberemos trabajar para colocarlo allá.” Así nació, el 25 de mayo de 1961, el programa lunar Apollo.

Para mi en esos años todo me parecía muy de ciencia ficción, pero como decía uno de mis mentores el Dr. Carl Sagan, a mi también la ciencia ficción me llevó a la ciencia. Hoy desde este humilde lugar deseo hacer un homenaje a ese mito que sigue vivo,
John F. Kennedy.


"La exploración del espacio continuará adelante, nos unamos a ella o no, y es una de las grandes aventuras de todos los tiempos, y ninguna nación que espere ser la líder de otras naciones puede esperar a quedarse detrás en esta carrera por el espacio." J.F.K.

"End of transmission".










COMUNICACION LASER LUNAR



La demostración de Comunicación Láser Lunar ha hecho historia al utilizar un rayo láser pulsante para transmitir datos a través de los 384,400 km que separan a la Tierra y la Luna a una tasa récord de bajada de datos de 622 megabits por segundo (Mbps).
El LLCD es el primer sistema de NASA para comunicación de dos vías usando un láser en vez de ondas de radio. También ha demostrado una tasa de subida de datos libre de errores de 20 Mbps transmitidos desde la estación de tierra primaria en New Mexico hacia una sonda espacial que actualmente orbita la luna.

Desde que NASA se aventuró por primera vez al espacio, ha dependido de la comunicación por radiofrecuencia. El problema es que la radiofrecuencia está alcanzando su capacidad límite a medida que aumenta la demanda de más capacidad de transmisión de datos. El desarrollo y despliegue de sistemas de comunicación láser permitirá extender las posibilidades de comunicación espacial, como por ejemplo un incremento en la resolución de imágenes y transmisión de video en 3D por parte de sondas y naves espaciales desde el espacio profundo.
“El objetivo de LLCD es validar y construir confianza en esta tecnología de manera que futuras misiones consideren utilizarla”, dijo Don Cornwell, administrador del LLCD en el Centro de Vuelo Espacial Goddard, en Greenbelt, Maryland. “Esta capacidad única desarrollada por el Laboratorio Lincoln del Instituto de Tecnología de Massachusetts tiene posibilidades de aplicación increíbles”.

La parte “lunar” del LLCD se encuentra a bordo de la sonda espacial LADEE (Explorador de Ambiente de Polvo y Atmósfera Lunar) de NASA, lanzado en Septiembre desde las Instalaciones de vuelo Wallops, en Virginia. LADEE es una misión robótica de 100 días, entre cuyos objetivos se encuentra proveer datos que ayuden a determinar si era realmente polvo lo que causaba el misterioso brillo que observaron astronautas en el horizonte lunar durante las misiones Apollo, donde también explorará la atmósfera lunar.


 Información adicional: www.nasa.gov/mission_pages/ladee/main/

"Antes las distancias eran mayores porque el espacio se mide por el tiempo".Jorge Luis Borges
 
"End of transmission".






martes, 19 de noviembre de 2013

ONDAS GRAVITACIONALES HOLOGRAFICAS



Un extraño ruido detectado por el GEO600 hizo que los investigadores que trabajan en él, hasta un físico llamado Craig Hogan, director del Fermi National Accelerator Laboratory (Fermilab), de Estados Unidos, afirmara que el GEO600 se había tropezado con el límite fundamental del espacio-tiempo, es decir, el punto en el que el espacio-tiempo deja de comportarse como el suave continuo descrito por Einstein para disolverse en “granos” (más o menos de la misma forma que una imagen fotográfica puede verse granulada cuanto más de cerca la observamos).
Según Hogan, “parece como si el GEO600 hubiese sido golpeado por las microscópicas convulsiones cuánticas del espacio-tiempo”. El físico afirma que si esto es cierto, entonces se habría encontrado la evidencia necesaria para afirmar que vivimos en un gigantesco holograma cósmico.
La teoría de que vivimos en un holograma se deriva de la comprensión de la naturaleza de los agujeros negros y, aunque pueda parecer una teoría absurda, tiene una base teórica bastante firme. Los hologramas de las tarjetas de crédito y billetes están impresos en películas de plástico bidimensionales. Cuando la luz rebota en ellos, recrea la apariencia de una imagen tridimensional. En la década de 1990, el físico Leonard Susskind y el premio Nobel Gerard ‘t Hooft sugirieron que el mismo principio podría aplicarse a todo el universo. 


Según esta teoría, nuestra experiencia cotidiana podría ser una proyección holográfica de procesos físicos que tienen lugar en una lejana superficie bidimensional. Desde hace algún tiempo, los físicos han mantenido que los efectos cuánticos podrían provocar que el continuo espacio-tiempo convulsionara fuera de control a escalas muy pequeñas. A estas escalas, la red espacio-temporal podría granularse, y estar compuesta de diminutas unidades (similares a los píxeles) de un tamaño de aproximadamente cien trillones de veces el tamaño del protón.
Si el ruido captado por el GEO600 ha registrado estas hipotéticas convulsiones, según Hogan, la descripción del espacio-tiempo cambiaría radicalmente. Eso supondría considerar el espacio-tiempo como un holograma granulado, y describirlo como una esfera cuya superficie exterior estaría cubierta por unidades del tamaño de la longitud de Planck (distancia o escala de longitud por debajo de la cual se espera que el espacio deje de tener una geometría clásica).


Cada una de estas “piezas” del mosaico universal sería, asimismo, una unidad de información. Y, según el principio holográfico, la cantidad total de información que cubre el exterior de dicha esfera habría de coincidir con el número de unidades de información contenidas en el volumen del universo. Teniendo en cuenta que el volumen del universo esférico sería mucho mayor que el volumen de la superficie exterior, esto se complica aún más. Pero Hogan también señala una solución para este punto: si ha de haber el mismo número de unidades de información o bits dentro del universo que en sus bordes, los bits interiores han de ser mayores que la longitud de Planck. “Dicho de otra forma, el universo holográfico sería borroso”, explica el físico.
La longitud de Planck ha resultado demasiado pequeña para ser detectada hasta la fecha, pero Hogan afirma que el GEO600 ha podido registrarla porque la “proyección” holográfica de la granulosidad podría ser mucho mayor, de alrededor de entre 10 y 16 metros.
Lo que ha detectado el GEO600, en definitiva, podría ser la borrosidad holográfica del espacio-tiempo, desde el interior de este universo holográfico. Cierto es que aún está por demostrar que el extraño ruido captado, de frecuencias entre los 300 y 1.500 hertzios, no proceda de cualquier otra fuente, reconoce Hogan.

Esta posibilidad también ha de considerarse, dada la sensibilidad del detector para captar desde el ruido del paso de las nubes hasta el de los movimientos sísmicos terrestres. De hecho, los investigadores del detector se afanan continuamente en “borrar” ruidos de fondo detectados por el GEO600, para poder definir lo importante. De cualquier manera, si el GEO600 hubiera descubierto el ruido holográfico procedente de las convulsiones cuánticas del espacio-tiempo, entonces ese ruido obstaculizaría la detección de las ondas gravitacionales. Sin embargo, por otro lado, el hallazgo podría suponer un descubrimiento incluso más fundamental, sin precedentes en la historia de la física.


Información adicional: http://www.geo600.org/ 

 "¿Qué es real? ¿Cómo defines lo real? Si estás hablando de lo que puedes sentir, lo que puedes oler, lo que puedes saborear y ver, entonces lo real son simplemente señales eléctricas interpretadas por tu cerebro". The Matrix

"End of transmission".








 

lunes, 21 de octubre de 2013

MAPEANDO EL OSCURO UNIVERSO




Visiones deformadas de la radiación cósmica de fondo - la luz detectable luego del Big Bang - permiten a los astrónomos mapear la cantidad total de materia visible e invisible en el universo.Aproximadamente el 85 por ciento de toda la materia del universo es materia oscura, invisible incluso para los telescopios más potentes, pero detectable por su atracción gravitatoria.
Con el fin de encontrar la materia oscura, los astrónomos buscan un efecto llamado lente gravitacional: es cuando la atracción gravitatoria de la materia oscura curva y amplifica la luz de un objeto más distante. En su forma más excéntrica resulta en múltiples imágenes en forma de arco de objetos cósmicos distantes.
Pero hay una advertencia aquí: con el fin de detectar la materia oscura debe haber un objeto directamente detrás de él. Las 'estrellas' deben estar alineadas.
En un estudio reciente dirigido por el Dr. James Geach de la Universidad de Hertfordshire en el Reino Unido, los astrónomos han puesto sus ojos en el fondo cósmico de microondas (CMB).
"El CMB es la luz más distante / más antigua que podemos ver," dijo el Dr. Geach , "Se puede considerar como una superficie, como la luz de fondo del universo entero."
Los fotones del CMB se lanzaban hacia la Tierra desde que el universo tenía sólo 380.000 años de antigüedad. Un solo fotón ha tenido la oportunidad de encontrarse con un montón de materia, después de haber investigado con eficacia toda la materia en el universo a lo largo de su línea de visión.

"Así que nuestra visión del CMB es un poco distorsionada de lo que intrínsecamente se parece - un poco como mirar el patrón en el fondo de una piscina," dijo el Dr. Geach.
Al tomar nota de las pequeñas distorsiones en el CMB, podemos probar toda la materia oscura en el universo entero. Pero haciendo precisamente esto es extremadamente difícil.
El equipo observó el cielo del sur con el Telescopio del Polo Sur, un telescopio de 10 metros diseñado para observaciones en microondas. Esta, innovadora encuesta produce un mapa CMB del cielo austral, que fue consistente con los datos de CMB anteriores del satélite Planck.

Las firmas características de lentes gravitacionales interviniendo la materia no pueden ser extraídos por los ojos humano. Los astrónomos se basaron en el uso de un procedimiento matemático bien desarrollado. 
Esto produjo un "mapa de la densidad de masa total proyectado entre nosotros y el CMB. Eso es bastante increíble si se piensa en ello - es una técnica de observación para mapear toda la masa del universo, de vuelta a la CMB ", explicó el Dr. Geach.
Pero el equipo no terminó su análisis allí. En cambio, continuaron para medir el efecto de lente CMB en las posiciones de los quásares y de poderosos agujeros negros supermasivos en los centros de las primeras galaxias.
Según la teoría de la relatividad general de Einstein, un objeto muy masivo y muy compacto colapsará en un agujero negro. En un artículo escrito en 1939, Albert Einstein afirmó que los agujeros negros (en aquel momento se llamaban “singularidades de Schwarzschild”) son una mera simplificación matemática que no existe en la realidad física
"Encontramos que las regiones del cielo con una gran densidad de los cuásares tienen una señal lente CMB claramente más fuerte, lo que implica que los quásares se encuentran de hecho en las estructuras de la materia a gran escala", dijo el Dr. Ryan Hickox de la Universidad de Dartmouth - segundo autor en el estudio -. Por último, el mapa CMB se utilizó para determinar la masa de estos halos de materia oscura. Estos resultados coinciden las determinadas en los estudios más antiguos, que miran los quásares agrupados en el espacio, sin ninguna referencia a la CMB en absoluto.
Los resultados consistentes entre estas dos mediciones independientes son una poderosa herramienta científica. Según el Dr. Hickox, muestra que "tenemos un buen entendimiento de cómo los agujeros negros supermasivos residen en las estructuras a gran escala, y que sobre ese misterio (una vez más) Einstein estaba en lo cierto."

Información adicional: http://arxiv.org/abs/1307.1706

"El verdadero misterio del mundo es lo visible, no lo invisible". Oscar Wilde

"End of transmission".








viernes, 11 de octubre de 2013

NOBEL DE FISICA 2013



El 4 de julio de 2012, el laboratorio de física de partículas del CERN, uno de los experimentos más largos y complejos del mundo, confirmó la partícula Higgs a partir de colisiones de miles de millones de partículas dentro del Gran Colisionador de Hadrones (LHC). Ahora los padres del boson el físico belga François Englert y el físico británico Peter Higgs han sido galardonados con el Premio Nobel de Física 2013 ( mérito también del CERN por su descubrimiento ) por sus ideas sobre cómo las partículas fundamentales adquieren masa, formuladas independientemente en 1964 y confirmadas en 2012 con el hallazgo del llamado bosón de Higgs (apodado como "partícula de Dios").

La teoría premiada constituye una parte esencial del Modelo Estándar de Partículas, que describe cómo está hecho el mundo. De acuerdo con este modelo, todo cuanto nos rodea, desde las flores y las personas hasta las estrellas, está formado por partículas de materia y por partículas portadoras de las distintas fuerzas. El Modelo Estándar contempla, además, la existencia de un tipo especial de partícula, el bosón de Higgs, que se origina "en un campo invisible que permea todo el espacio", según exponen los académicos suecos. "Incluso cuando el universo parece vacío, este campo está presente. Sin él no existiríamos, porque gracias a su contacto con el campo las partículas adquieren masa. La teoría propuesta por Englert y Higgs describe este proceso", matizan al explicar los motivos de la concesión del Nobel de Física.

Aunque haber corroborado la existencia de la partícula de Higgs supone un gran logro, el Modelo Estándar no parece ser la respuesta definitiva al puzzle cósmico, advierten desde la Academia Sueca de Ciencias que otorga el Nobel. "Una de las razones es que este modelo trata a los neutrinos como virtualmente sin masa, cuando estudios recientes muestran que sí tienen masa", aclaran. Además, este modelo describe solo la material visible, es decir, una quinta parte de toda la materia del cosmos. Encontrar la misteriosa "materia oscura" es otro de los objetivos que los científicos esperan alcanzar en los próximos años,- fantasía, ciencia ficción ó realidad está por descubrirse-.


"Cuando examino mis métodos de pensamiento, llego a la conclusión de que el don de la fantasía me ha significado más que mi talento para absorber el conocimiento positivo". Albert Einstein



"End of transmission".





miércoles, 2 de octubre de 2013

NASA "WILL BE BACK" DE LA CRISIS



No hay Terminator para la agencia, pero... Ayer la NASA cumplió 55 años. También ese día, la organización tecnológica mas grande del mundo debió cerrar casi por completo, tal como anuncia en su sitio web.  Es que su nombre está incluido en la larga lista de servicios que quedarán suspendidos debido al “cierre parcial” del gobierno de Estados Unidos, una consecuencia de que el Congreso no haya llegado a un consenso respecto al presupuesto.
En particular, la NASA enviará a sus casas a más de 17.000 empleados. Solo quedarán en las oficinas 549 personas, quienes deberán encargarse de hacer funcionar las poquísimas misiones de la agencia que no quedarán paralizadas: la Estación Espacial Internacional, donde en este momento viven y trabajan seis astronautas, y el telescopio espacial Hubble.
Según dijo Elizabeth Robinson, CFO de la NASA, todos los satélites que estén en plena misión no se verán afectados. “Sin embargo, si la misión del satélite no se ha lanzado todavía, el trabajo por lo general cesará en ese proyecto”, aclaró.
Curiosity, por su parte, no tuvo tanta suerte. El rover de la NASA que recorre el suelo marciano desde agosto del año pasado es uno de los que deberá salir de “licencia” a partir del martes.
El robot de la NASA será puesto en “modo protegido” durante el cierre del gobierno y no colectará información durante ese período.  

El presidente de Estados Unidos, Dwight D. Eisenhower firmó su acta de fundación en 1958, comenzando a funcionar de forma operativa el 6 de octubre de ese año con cuatro laboratorios y cerca de 8 mil empleados, en el inicio de la llamada "Carrera Espacial".
La Nasa tenía como objetivo principal poner una nave tripulada en órbita y luego llevar al primer hombre a la Luna, hecho que se concretó el 20 de julio de 1969, con la llegada del Apollo XI.
A pesar de que no hay ni en el corto o mediano plazo, planes de la agencia de misiones tripuladas a la Luna, se estima que para la mediados de la próxima década se intentará que un ser humano pise la superficie de Marte. Esperemos que pronto se acabe la crisis.


 "En los momentos de crisis, sólo la imaginación es mas importante que el conocimiento". Albert Einstein

"End of transmission".



 


miércoles, 25 de septiembre de 2013

EL BIG BANG ES SOLO UN ESPEJISMO



Un grupo de científicos presentaron una nueva teoría cosmológica sobre el origen del Universo.
Aparentemente se rechazaría la teoria del Big Bang por otra vinculada con el hoyo negro.
Es increíble (a esta altura de mi vida, ya no me asombra), que la ciencia ficción (como cada tanto), se adelantara cuando a fines de los años 70, la serie de Tv. "Cosmos 1999", en su episodio "El Sol Negro", la luna con todos los tripulantes de la estación ALFA pasaron a través del hoyo negro hacia otro Universo.

Estas nuevas teorías explican que un pequeño cambio a la teoría de la gravedad implica que nuestro universo heredó su flecha del tiempo desde el agujero negro en el que haya nacido. “Como resultado, nuestro propio universo puede ser el interior de un agujero negro existente en otro universo”. Tal es la conclusión de Nikodem Poplawski la Universidad de Indiana en un notable estudio sobre la naturaleza del espacio y el origen del tiempo. 
La idea de que nuevos universos se pueden crear dentro de los agujeros negros y que el nuestro se pudo haber originado de esta forma ha sido materia prima de la ciencia ficción por muchos años. Pero una derivación científica adecuada de esta idea nunca ha aparecido. 
Ahora, Poplawski proporciona tal derivación. Él dice que la idea de que los agujeros negros son las madres cósmicas de nuevos universos es una consecuencia natural de una simple nueva suposición sobre la naturaleza del espacio-tiempo.
Poplawski señala que la derivación estándar de la relatividad general no tiene en cuenta el momentum intrínseco de partículas de medio spin. Sin embargo existe otra versión de la teoría, llamada la teoría de gravedad de Einstein-Cartan-Kibble-Sciama, que sí considera este momentum.

Esta predice que las partículas de medio espín entero deberían interactuar, lo que genera una diminuta fuerza repulsiva llamada “torsión”. En circunstancias normales, la torsión es demasiada pequeña como para tener algún efecto. Pero cuando las densidades son mucho mayores que las de la materia nuclear, se convierte en significativa. En particular, dice que Poplawski, la torsión evita la formación de singularidades dentro de un agujero negro.
Esto es interesante por muchas razones. En primer lugar, tiene importantes implicaciones para la forma en que el Universo debe haber crecido cuando estaba cerca de su tamaño mínimo.
Los astrofísicos saben desde hace tiempo de que nuestro universo es tan grande que no podría haber llegado a su tamaño actual dada la tasa de expansión que vemos ahora. En cambio, creen que creció en muchos órdenes de magnitud en una fracción de segundo después del Big Bang, un proceso conocido como inflación. El problema de la inflación es que necesita una teoría adicional para explicar por qué se produce y eso es desagradable. El enfoque de Poplawski resuelve este problema inmediatamente. Dice que la torsión causó esta rápida inflación.
Esto significa que el universo tal como lo vemos hoy en día se puede explicar por una sola teoría de la gravedad sin ninguna hipótesis adicional sobre la inflación.

Otro subproducto importante del enfoque de Poplawski es que hace posible que los universos nazcan dentro del horizonte de sucesos de cierto tipo de agujero negro. Aquí, la torsión evita la formación de una singularidad, pero permite una enorme densidad de energía, lo que conduce a la creación de partículas a gran escala a través de la producción de pares seguido por la expansión del nuevo universo.
Este es un evento del tipo Big Bang. “Esta expansión no es visible para observadores fuera del agujero negro, para quienes la formación del horizonte y todos los procesos posteriores se producen después de un tiempo infinito”, dice Poplawski.
Por esta razón, el nuevo universo es una rama separada del espacio-tiempo y evoluciona en consecuencia. Por otro lado, este enfoque también sugiere una solución a otro de los grandes problemas de la cosmología: por qué el tiempo parecer fluir en una dirección pero no en la otra, a pesar de que las leyes de la física son simétricas en el tiempo.
Poplawski dice que el origen de la flecha del tiempo procede de la asimetría del flujo de materia hacia el agujero negro del universo madre. “La flecha del tiempo cósmico de un universo dentro de un agujero negro sería fijado por el colapso asimétrico de la materia a través del horizonte de eventos”, dice. En otras palabras, nuestro universo heredó su flecha del tiempo de su madre.
Él dice que los universos hijos pueden heredar otras propiedades de sus madres, lo que implica que puede ser posible detectar estas propiedades, proporcionando una prueba experimental de su idea.

Por lo tanto podría ser el momento de decir adiós al Big Bang. Otros cosmólogos especulan que el Universo podría haberse formado a partir de los escombros expulsados cuando una estrella de cuatro dimensiones colapsó en un agujero negro -un escenario que podría ayudar a explicar por qué el universo parece ser tan uniforme en todas las direcciones-. El modelo estándar del Big Bang nos dice que el universo explotó en un punto infinitamente denso, o singularidad. Pero nadie sabe lo que habría provocado esta explosión: las leyes conocidas de la física no pueden decirnos lo que pasó en ese momento.
“Para todos los físicos, todo podría haber llegado de esa singularidad”, dice Niayesh Afshordi, astrofísico en el Instituto Perimeter de Física Teórica en Waterloo, Canadá.
También es difícil explicar cómo un Big Bang violento habría dejado un universo que tiene una temperatura casi uniforme, ya que no parece haber pasado bastante tiempo desde el nacimiento del cosmos para haber alcanzado el equilibrio térmico. Para la mayoría de los cosmólogos, la explicación más plausible de esta uniformidad es que, poco después del comienzo de los tiempos, alguna forma desconocida de energía (será la "oscura") hizo que el joven Universo se inflacionara a un ritmo que era más rápido que la velocidad de la luz. De esta manera, un pequeño parche con la temperatura más o menos uniforme se habría extendido en el vasto cosmos que vemos hoy. Pero Afshordi señala que “Si el Big Bang fue tan caótico, no está claro que no habría habido incluso una pequeña mancha homogénea de inflación para empezar a trabajar”.
En un artículo publicado la semana pasada en arXiv , Afshordi y sus colegas recurren a una propuesta realizada en 2000 por un equipo que incluye a Gia Dvali y Ludwig Maximilians en Munich, Alemania. En ese modelo, nuestro Universo tridimensional (3D) es una membrana, o membrana, que flota a través de un ‘universo mayor’ que tiene cuatro dimensiones espaciales.
El equipo de Ashfordi dio cuenta de que si un universo mayor contenía sus propias estrellas de cuatro dimensiones (4D), algunos de ellos podrían colapsar, formando agujeros negros 4D, de la misma manera que las estrellas masivas en nuestro Universo; explotando como supernovas, una violenta expulsión de su capas exteriores, mientras que sus capas internas colapsan en un agujero negro.
En nuestro universo, un agujero negro está limitado por una superficie esférica llamada horizonte de sucesos. Mientras que en un espacio tridimensional ordinario se necesita un objeto de dos dimensiones (una superficie) para crear un límite dentro de un agujero negro, en un universo mayor del horizonte de sucesos de un agujero negro en 4D este sería un objeto 3D -una forma llamada hiperesfera . Cuando el equipo de Afshordi modeló la muerte de una estrella 4D, se encontró con que el material eyectado formaría una brana 3D que rodea ese horizonte de eventos 3D y se amplía poco a poco.
Los autores postulan que el Universo en 3D en el que vivimos puede ser justo como una brana y que detectan el crecimiento de la membrana como la expansión cósmica. “Los astrónomos midieron que la expansión del Universo debía haber comenzado con un Big Bang; pero eso es sólo un espejismo”,dice Afshordi.
El modelo también explica, naturalmente, la uniformidad de nuestro Universo. Debido a que el universo mayor en 4D podría haber existido por un tiempo infinitamente largo en el pasado, no habría sido una gran oportunidad para las diferentes partes de la mayor parte de las 4D, para llegar a un equilibrio, que nuestro Universo 3D habría heredado.
La idea tiene algunos problemas, sin embargo. A principios de este año, el observatorio espacial Planck de la Agencia Espacial Europea dio a conocer datos que mapeaban las ligeras fluctuaciones de temperatura del fondo cósmico de microondas -la radiación reliquia que lleva huellas de los primeros momentos del Universo-. Los patrones observados coinciden con las predicciones hechas por el modelo estándar del Big Bang y de la inflación, pero el modelo de agujero negro se desvía de las observaciones de Planck en un 4%. Con la esperanza de resolver la discrepancia, Afshordi dice que su ahora está refinando su modelo.
A pesar de la falta de coincidencia, Dvali alaba la ingeniosa manera con que el equipo echó fuera el modelo del Big Bang. “La singularidad es el problema más importante en la cosmología y se ha reescrito la historia para que nunca lo encontraramos“, dice. Considerando que los resultados de Planck demuestran que la inflación es correcta, dejan abierta la cuestión de cómo se produjo la inflación, añade Dvali. El estudio podría ayudar a mostrar cómo la inflación fue provocada por el movimiento del Universo a través de una realidad de dimensiones superiores.

También sabemos que las leyes de la física pueden cambiar y que nuestro universo podría estar involucrado en un proceso de selección natural cósmica en la que los nuevos universos nacen de los agujeros negros. El físico de renombre y autor Lee Smolin expone sus puntos de vista que son contrarios al modelo ampliamente aceptado del universo en el que el tiempo es una ilusión y las leyes de la física son fijas, como sostuvo Einstein y muchos físicos contemporáneos, así como algunos filósofos antiguos. Reconociendo que sus declaraciones eran provocativas, explicó cómo había llegado a cambiar de opinión acerca de la naturaleza de la realidad y se había alejado de la idea de que las hipótesis que se aplican a las observaciones en el laboratorio se pueden extrapolar a todo el universo.
El Prof. Smolin se basó en su nuevo libro, "Time Reborn: from the crisis in physics to the future of the universe". Él es un miembro del cuerpo docente en la fundación Instituto Perimeter de Física Teórica en Toronto y merece una lectura a fondo de su original teoría que más adelante, publicaré en este blog.

"La originalidad no consiste en decir cosas nuevas, sino en decirlas como si nunca hubiesen sido dichas por otro". Johann Wolfgang Goethe


"End of transmission".










jueves, 19 de septiembre de 2013

EFECTOS DE LA EXPLOSION COSMICA



Según NASA, los datos aportados por los modelos y por las observaciones satelitales muestran que, cuatro días después de la explosión del bólido, la parte más rápida y alta del penacho inicial, había dado una vuelta entera a todo el hemisferio norte y regresado a Chelyabinsk.
En una nueva investigación se han reconstruido los efectos que originó en nuestro planeta la visita del objeto de once mil toneladas que entró en la atmósfera terrestre y explotó a poco más de 23 kilómetros (14 millas) de altura sobre la superficie de Chelyabinsk, Rusia, a las 7:20:26 p.m. PST, ó 10:20:26 p.m. EST, del 14 de febrero (3:20:26 UTC del 15 de febrero) de este año.

El físico atmosférico Nick Gorkavyi, de la NASA, se perdió una magnífica oportunidad de presenciar el evento del siglo, cuando el objeto cósmico explotó sobre su ciudad natal de Chelyabinsk, Rusia. Sin embargo, desde la ciudad de Greenbelt en Maryland, sede del Centro Goddard de Vuelos Espaciales de la NASA, Gorkavyi y sus colegas de la NASA fueron testigos de un conjunto de fenómenos nunca antes observados con tanto detalle, causados en la atmósfera por la explosión. Cuando el objeto llegado del espacio ingresó en la atmósfera de la Tierra a 18,6 kilómetros por segundo (unas 41.600 millas por hora), la fricción con el aire fue brutal.
La temperatura del proyectil cósmico subió de forma espectacular, dándole el aspecto de una bola de fuego, o incluso de un pedacito de Sol desgajado de éste. La explosión que se desencadenó a poco más de 23 kilómetros por encima de Chelyabinsk liberó más de 30 veces la energía de la bomba atómica que destruyó Hiroshima. Es mucho en términos humanos, pero, en comparación, la caída del objeto cósmico que provocó la extinción de los dinosaurios y otras especies medía cerca de 10 kilómetros (6 millas) de diámetro medio y liberó alrededor de 1.000 millones de veces la energía de esa bomba atómica.

Algunos de los fragmentos del objeto que sobrevivieron a la explosión del bólido de Chelyabinsk impactaron contra el suelo. Sin embargo, la explosión también depositó cientos de toneladas de polvo en la estratosfera, lo que permitió a un satélite de la NASA hacer mediciones sin precedentes sobre cómo el material formó un cinturón de polvo estratosférico, delgado pero bien definido y persistente. El equipo de Gorkavyi observó detalladamente la formación del cinturón de polvo en la estratosfera de la Tierra y consiguió hacer el primer seguimiento desde el espacio de la evolución a largo plazo del penacho de un bólido.
Gorkavyi y sus colegas combinaron una serie de mediciones satelitales con los modelos atmosféricos para simular como evolucionó el penacho de la explosión del bólido a medida que la corriente en chorro estratosférica lo arrastraba por el hemisferio norte.


Cerca de 3,5 horas después de la explosión, se detectó el penacho en la atmósfera a una altitud de cerca de 40 kilómetros (25 millas), moviéndose con rapidez hacia el este a más de 300 kilómetros por hora (unas 190 millas por hora). El día después de la explosión, se detectó que el penacho continuaba desplazándose hacia el este y llegaba a las Islas Aleutianas. Las partículas más grandes y pesadas comenzaron a perder altura y velocidad, mientras que las más pequeñas y ligeras se quedaron en el aire y mantuvieron su velocidad, en concordancia con las variaciones en la velocidad del viento a diferentes altitudes.
Para el 19 de febrero, la parte más rápida y alta del penacho inicial había dado una vuelta entera a todo el hemisferio norte y regresado a Chelyabinsk. Pero la evolución del penacho continuó: Al menos tres meses más tarde, un cinturón detectable de polvo del bólido persistía alrededor de la Tierra. A la raza humana el Cosmos le tiene reservado un futuro incierto.

Información adicional: http://www.nasa.gov/content/goddard/around-the-world-in-4-days-nasa-tracks-chelyabinsk-meteor-plume/

"En tres tiempos se divide nuestra existencia: en presente, pasado y futuro. De éstos, el presente es brevísimo; el futuro, dudoso; el pasado, cierto". Séneca
"End of transmission".




viernes, 13 de septiembre de 2013

VOYAGER 1: MAS ALLA DE LA FRONTERA FINAL



La sonda espacial Voyager 1 se ha convertido en el primer objeto hecho por el hombre en abandonar el Sistema Solar. Científicos de la NASA dijeron que los instrumentos de la sonda indican que ésta se ha movido más allá de la burbuja de gas caliente que emite nuestro Sol y ahora se desplaza en el espacio, entre las estrellas. Lanzado en 1977, el Voyager fue enviado inicialmente a estudiar los planetas exteriores del Sistema Solar, pero luego siguió su curso.
Al día de hoy, la nave de la NASA se encuentra a casi 19.000 millones de kilómetros de la Tierra. Esta distancia es tan grande que ahora una señal de radio enviada desde el Voyager necesita 17 horas para llegar a los receptores en nuestro planeta.

"Esto es realmente un hito al que habíamos estado esperando llegar cuando iniciamos este proyecto hace 40 años: que tendríamos una nave espacial en el espacio interestelar", explica el profesor Ed Stone, científico jefe del proyecto."Científicamente es un gran hito, aunque también históricamente. Este es uno de esos viajes de exploración como darle la vuelta al mundo por primera vez o poner un pie en la Luna por primera vez. Esta es la primera vez que hemos comenzado a explorar el espacio entre las estrellas ", dice Stone. Los sensores del Voyager han estado indicando durante algún tiempo que su ambiente local ha cambiado.
Los datos que finalmente convencieron al equipo de la misión de oficializar el salto al espacio interestelar vinieron del instrumento de Ciencia de Onda de Plasma (PWS) por sus siglas en inglés) de la sonda. Este artefacto puede medir la densidad de las partículas cargadas en los alrededores del Voyager. Las lecturas hechas entre abril y mayo de este año y entre octubre y noviembre del año pasado revelaron un salto de casi 100 veces en el número de protones que ocupan cada centímetro cúbico en el espacio.
Los científicos han teorizado por largo tiempo que un aumento como éste sería observado eventualmente si el Voyager sale más allá de la influencia de los campos magnéticos y del viento de partículas que ondean desde de la superficie del sol.Cuando el equipo del Voyager unió los nuevos datos con la información de los otros instrumentos a bordo, se calculó que el momento de la salida se produjo alrededor del 25 de agosto de 2012. Esta conclusión está contenida en un informe.
"Esto es grande, es realmente impresionante, el primer objeto hecho por el hombre que sale al espacio interestelar", dijo el profesor Don Gurnett de la Universidad de Iowa y el investigador principal en el PWS. El 25 de agosto de 2012, Voyager 1 estaba a unas 121 Unidades Astronómicas de distancia. Esto es 121 veces la distancia entre la Tierra y el Sol.

Traspasar la frontera, conocida técnicamente como la heliopausa, fue, según dice el astrónomo británico Martin Rees, un logro notable: "Es absolutamente sorprendente que este frágil artefacto, basado en la tecnología de los años 70, pueda dar señales de su presencia desde esta inmensa distancia". 
Aunque ahora incrustado en los campos de gas, polvo y magnéticos de otras estrellas, el Voyager todavía siente un tirón gravitatorio del Sol, al igual que ocurre con algunos cometas que se encuentran aún más allá en el espacio. No obstante, para todos los efectos, la nave ha abandonado lo que la mayoría de la gente define como el Sistema Solar. Ahora se encuentra en un domino completamente nuevo.  

Se espera que en unos 10 años sus fuentes de energía hechas de plutonio dejen de suministrar electricidad, entonces sus instrumentos y sus transmisores de 20W morirán.Voyager 1 no se acercará a otra estrella hasta dentro de 40.000 años, pese a moverse a una velocidad de 45 kilómetros por segundo (160.000 kilómetros por hora).
"Voyager 1 estará en órbita alrededor del centro de nuestra galaxia con todas sus estrellas por miles de millones de años", dijo el profesor Stone.
El trabajo de la sonda no ha terminado, sin embargo. Mientras sus instrumentos sigan trabajando, los científicos querrán analizar el nuevo entorno.
La nueva región a través del cual está volando el Voyager fue generada y esculpida por grandes estrellas que explotaron hace millones de años. Hay evidencia indirecta y modelos para describir las condiciones en este medio, pero ahora Voyager puede medirlos en el lugar y enviar el reporte.
La idea de que la nave espacial pudiera salir del Sistema Solar era tan lejana, tanto en sentido figurado como literal. Hoy ese día ha llegado, y Voyager sigue hallando nuevas fronteras."Donde ningún hombre ha llegado jamas".
Como decía el gran Carl Sagan " Enviamos un viajero con un mensaje a las estrellas". Hasta siempre V`ger.

«Hasta el infinito... ¡y más allá!». John Lasseter

"End of transmission"





martes, 10 de septiembre de 2013

UN PULSAR POR CELULAR



Así como desde finales de los noventa, más de un millón de internautas de todo el mundo han cedido parte de la capacidad de procesamiento de su ordenador personal mientras estaba ociosa para el proyecto SETI@home, que busca vida extraterrestre. En estos momentos se calcula que existen unos 3.200 millones de personas con teléfonos móviles en el mundo. Si tan sólo un pequeño porcentaje se uniera a la causa daría lugar a una capacidad de procesamiento de datos tan grande que superaría al mayor superordenador de la historia.

David Anderson, de la Universidad de Berkeley y su equipo han trabajado en un software BOINC que se ejecuta tanto en smartphones como en tabletas, ya que estos dispositivos móviles de última generación cuentan con CPUs y procesadores gráficos de gran alcance, suficiente para adaptarse a la computación distribuida. El único requisito es que utilicen Android como sistema operativo, por lo tanto ya es posible buscar vida extraterrestre por smartphones. Ahora le tocó el turno a Einstein@Home movil. Un equipo internacional dirigido por científicos de los Institutos Max Planck de Física Gravitacional y Radioastronomía en Alemania, han analizado los datos de uno de los mayores radiotelescopios del mundo. El resultado, según explica la institución en un comunicado, ha sido el descubrimiento de 24 nuevos púlsares, como se denomina a estas singulares estrellas de neutrones con propiedades físicas increíbles. El hallazgo servirá para poner a prueba la teoría de la relatividad general de Einstein, además de ayudar a completar el mapa cósmico y como herramienta de investigación en muchas ramas de la astrofísica. “Sólo podríamos llevar a cabo esta búsqueda gracias al potencial de cálculo proporcionado por los voluntarios de Einstein@Home”, asegura Benjamin Knispel, investigador del Instituto Max Planck y autor principal del estudio publicado recientemente en la revista científica The Astrophysical Journal.
De hecho, muchos de estos púlsares se habían pasado por alto en investigaciones anteriores, a pesar de la especial relevancia de algunos de ellos. Y es que su detección no es tarea sencilla, al tratarse de restos de explosiones de estrellas masivas con estructuras complejas y fuertemente magnetizadas. Los púlsares se giran rápidamente, emitiendo un haz de ondas de radio a lo largo de su eje del campo magnético, por lo que se comportan de forma similar a un faro. Así, sólo se pueden observar cuando las ondas de radio se dirigen hacia la Tierra. Para detectar esas señales tan débiles que emiten se necesitan radiotelescopios grandes y sensibles. Knispel y su equipo analizaron los datos del seguimiento realizado entre 1997 y 2001 con el radiotelescopio del Observatorio Parkes del CSIRO (Commonwealth Scientific and Industrial Research Organisation, el organismo gubernamental que controla la investigación científica y sus aplicaciones industriales y comerciales en Australia), en el sureste de Australia.“La búsqueda de nuevos púlsares requiere un intenso trabajo computacional. Para determinar características a priori desconocidas, como su distancia o el período de rotación, tenemos que realizar análisis muy exhaustivos”, explica Knispel. Se necesita, por tanto, una importante capacidad de procesamiento. 

Mediante Einstein@Home se consigue una potencia de cálculo de alrededor de 860 petaflops por segundo, resultante de la unión de 200.000 ordenadores de hogares y oficinas de todo el mundo cuyos ciclos de cómputo ociosos son cedidos cada semana por más de 50.000 personas de forma voluntaria y altruista. Este potencial coloca al proyecto a la altura de los superordenadores más rápidos del mercado. Como consecuencia, el análisis de los archivos de Parkes se completó en ocho meses, mientras que la misma tarea en un solo núcleo de CPU habría necesitado más de 17.000 años, algo inabarcable.
Sin embargo, la potencia de cálculo no fue el único factor importante para descubrir las dos docenas de púlsares, pues también fue determinante el desarrollo de nuevos métodos de posprocesamiento. Y es que los datos registrados en la observación a menudo contienen interferencias. Sin embargo, en esta ocasión los astrónomos emplearon herramientas que les permitieron detectar púlsares previamente enmascarados por la presencia de estas señales.
El resultado fue el hallazgo de púlsares de particular interés para los astrónomos, como los que orbitan en sistemas binarios. Su descubrimiento exige aún mayor capacidad de cómputo que los aislados, lo que supera con creces las capacidades de computación de los dos Institutos Max Planck. Gracias a Einstein@Home se localizaron seis de este tipo. 
“Nuestros descubrimientos demuestran que proyectos de computación distribuida como Einstein@Home pueden desempeñar un papel importante en la astronomía”, afirma Bruce Allen, director del proyecto. Las cifras hablan por sí solas, ya que desde el primer descubrimiento de un púlsar de radio en agosto de 2010, la red informática mundial ha descubierto casi 50 nuevas estrellas.

Con todo, Allen espera que la computación distribuida pueda ser cada vez más importante para el análisis de datos astronómicos en el futuro. Participar en el proyecto es muy sencillo, pues no se tarda más de dos minutos en la instalación, que apenas requiere mantenimiento. Únicamente se necesita descargar BOINC, una plataforma de código abierto que permite donar tiempo de inactividad del ordenador a diversos proyectos científicos como Einstein@Home. La herramienta está disponible en Windows, Linux y Mac OS X. Además, desde el mes de julio, los voluntarios no sólo pueden ejecutar el programa en portátiles, sino también ayudar a encontrar nuevos púlsares desde sus teléfonos y tabletas con sistema Android. Para ello basta con tener instalada la versión 2.3 o superior.
El software no repercute en el consumo de batería ni en la factura de telefonía móvil, ya que la conexión sólo se permite cuando el aparato está cargando y mediante una red Wi-Fi, aprovechando únicamente la capacidad del procesador que de otra forma no se emplearía. Estos dispositivos centrarán su ayuda en la búsqueda de nuevos púlsares de radio en el Observatorio Arecibo en Puerto Rico, donde trataremos de encontrar la luz donde se encuentren.


"Quien quiera que sea y dónde sea que esté, el hombre que piensa se convierte en luz y potencia".
Henry George

 

"End of transmission".





lunes, 2 de septiembre de 2013

ANTIMATERIA SOLAR




Nuestro Sol siempre nos da sorpresas. Ahora se ha detectado antimateria en las erupciones solares mediante datos obtenidos en la banda de las microondas y en observaciones del campo magnético. La investigación, realizada por el equipo de Alexander T. Altyntsev, de la Academia Rusa de Ciencias, arroja algo de luz sobre la enigmática y fuerte asimetría que existe entre materia y antimateria. Para obtener la información esclarecedora ha sido decisiva la recopilación de datos a gran escala utilizando al Sol como un laboratorio.

Si bien las antipartículas se pueden crear y luego detectarlas con costosos y complejos experimentos en los aceleradores de partículas, tales partículas son muy difíciles de estudiar. Altyntsev y Natalia S. Meshalkina, del Instituto de Física Solar y Terrestre, dependiente de la Rama Siberiana de la Academia Rusa de Ciencias, así como Gregory D. Fleishman, del Instituto Tecnológico de New Jersey en Estados Unidos, han conseguido, por vez primera, detectar a distancia antipartículas relativistas (en este caso positrones o antielectrones) producidos en interacciones nucleares de iones acelerados en erupciones solares.
La detección ha sido posible gracias al análisis de datos astrofísicos en la banda de las microondas y sobre el campo magnético, obtenidos a partir de observatorios en la Tierra y de satélites astronómicos. Que tales partículas se generen en las erupciones solares no es una sorpresa, pero ésta es la primera vez que se han detectado sus efectos inmediatos.


Los resultados de este estudio abren nuevas vías de investigación para la heliofísica y la astrofísica en general. La capacidad de detectar estas antipartículas en un objeto cósmico promete no solo mejorar el conocimiento científico sobre la estructura básica de la materia, sino que también ofrece un laboratorio natural en el que intentar esclarecer algunos de los misterios más importantes del universo en que vivimos.

Los electrones y sus antipartículas, los positrones, tienen el mismo comportamiento físico, salvo que los electrones tienen una carga negativa, mientras que los positrones, como su nombre indica, tienen una carga positiva. Los científicos del LHC del CERN observaron recientemente cómo dos partículas eran capaces de transformarse de materia en antimateria y viceversa. Ahora, los investigadores han convertido esos datos en sonido, de modo que podamos escuchar la música de la antimateriaPara cada partícula fundamental, existe su antipartícula correspondiente. Las partículas de antimateria comparten la misma masa que sus contrarias de materia, pero su carga eléctrica es opuesta. Aunque la mayoría de las partículas existen como materia o antimateria, algunas de ellas pueden cambiar entre las dos.
B0 y B0S son esas partículas. Oscilan entre la materia y la antimateria millones de millones de veces por segundo. Si esa frecuencia se convirtiera directamente en el tono de una nota musical, sería demasiado alta para el oído humano. Los físicos han ralentizado la frecuencia millones de veces para que podamos disfrutar de la oscilación como sonido detectable.

Paul Adrien Maurice Dirac  dedujo, fundándose en un análisis matemático de las propiedades inherentes a las partículas subatómicas, que cada particula deberia tener su ‘antiparticula’. Así pues, estaría muy contento hoy al oir su música.

"En ciencia uno intenta decir a la gente, en una manera en que todos lo puedan entender, algo que nunca nadie supo antes". Dirac

"End of transmission".




miércoles, 14 de agosto de 2013

REVERSION MAGNETICA SOLAR



El campo magnético del Sol, bajo cuyo influjo están la Tierra y el resto de planetas del sistema solar, completará una inversión de polaridad en los próximos tres a cuatro meses que podría afectar a las comunicaciones por radio y la temperatura del planeta.
"Este cambio tendrá repercusiones en todo el sistema solar", ha explicado el físico solar Todd Hoeksema, de la Universidad de Stanford, en California. La inversión de polaridad -el norte pasará al sur y viceversa- ocurre cada once años, en la culminación de cada ciclo solar, cuando el magnetismo interno del Sol se reorganiza.

Durante esa fase, que los físicos denominan Máximo Solar, las erupciones de energía pueden incrementar los rayos cósmicos y ultravioletas que llegan a la Tierra, y esto puede interferir las comunicaciones por radio y afectar a la temperatura del planeta.
Hoeksema es director del observatorio Solar Wilcox, de Stanford, uno de los pocos del mundo que estudian los campos magnéticos del Sol y han observado este fenómeno desde 1976, un período en el cual han registrado tres inversionesPhil Scherrer, otro físico solar de Stanford, dijo que lo que ocurre es que "los campos magnéticos polares del Sol se debilitan, quedan en cero, y luego emergen nuevamente con la polaridad opuesta. Es una parte normal del ciclo solar".
La influencia magnética solar, conocida como heliosfera, se extiende a miles de millones de kilómetros más allá de Plutón, y aún la captan las sondas Voyager, lanzadas en 1977 y que ahora rondan el umbral del espacio interestelar. 



Esta vez, un geólogo y periodista ruso asegura que este cambio podría impactar irreparablemente en la vida digital de las personas. Según reveló Konstantin Ranks el mundo se acerca rápidamente a un momento "nunca visto antes en la historia de la civilización tecnológica que convertirá a todas las esperanzas de un gran futuro electrónico en una completa tontería". Según explicó, el anterior cambio de polaridad fue en el 2000, cuando todo el mundo se conectaba a través de módems.

"Imaginemos que la mayoría de nuestros satélites simplemente dejan de funcionar. No habrá una radio de onda corta, Internet solo funcionará con cable, los teléfonos móviles van a desaparecer", asegura Ranks en uno de sus artículos. El cambio, según explica, puede afectar no solo a Internet o los teléfonos, sino también poner en peligro los sistemas de mando y de control nuclear, los complejos equipos de los hospitales o los circuitos bancarios y de cambio.
La Tierra escapó por poco a una erupción solar que podría haber provocado un pulso electromagnético que habría cortado la electricidad, los coches y las comunicaciones en todo el planeta. La tormenta fue hace dos semanas y tuvo una potencia que se compara con la erupción que provocó el apagón de la planta hidroeléctrica en Quebec, Canadá, en 1989
Peter Vincent Pry, de la Comisión para las Amenazas de Pulsos Electromagnéticos, explicó que la salvación fue milagrosa y que se trata de "una ruleta rusa".

"Es necesario recalcar que toda polaridad es una relación entre dos elementos y como tal, nunca es absoluta sino relativa, incluso en un par de opuestos. Por lo tanto, el mismo elemento puede ser positivo en su relación con un cierto "polo" y negativo en su relación con otro. Un ejemplo de la relatividad de las "relaciones polares" existe en la polaridad fundamental entre la energía y la materia".

"End of transmission"


viernes, 9 de agosto de 2013

ATOMOS Y BITS TELETRANSPORTADOS



Un nuevo análisis dice que el proceso de teletransporte no tomaría unos segundos como puede verse en la serie de ciencia ficción Star Trek. Podría, de hecho, ! tardar más que la historia del universo! 
Los estudiantes de la Universidad de Leicester examinaron el tiempo y la energía necesaria para mover datos de un ser humano a través de un teletransportador. Se supone que los datos serían pares de ADN dentro de cada célula, calculado alrededor de 10 a la 10 bits por célula! Incluyendo el cerebro de la persona, el número de bits es asombroso: 2,6 x 10 a la 42.
El tiempo que se tardaría en enviar a una persona depende del ancho de banda. Suponiendo una tasa de 29,5 a 30 GHz, los estudiantes determinaron que enviar a una persona tardaría 350.000 veces más que la edad del universo que se teoriza que es de 14000 millones de años.
El cuerpo humano promedio contiene aproximadamente 10 a la 28 átomos, o más de un billón de billones. Se necesita un gran esfuerzo para mantener dos partículas entrelazadas. Es extremadamente difícil conseguir más de unos pocos átomos vibrando juntos, perfectamente sincronizados, debido a la interferencia. En el mundo real, los objetos interactúan constantemente con el medio ambiente, y la decoherencia se produce instantáneamente. Si se tratara de teletransportar información sobre cada átomo de un cuerpo a través del entrelazamiento cuántico, habría que codificar las cosas en un instante.

Lo cual lleva al debate de átomos versus bits. La pregunta clave que nos fuerza a plantear el transportador es la siguiente: enfrentados a la tarea de mover desde un lugar a otro alrededor de 10 a la 28 (un 1 seguido de 28 ceros) átomos de materia combinados en un patrón complejo para integrar un ser humano individual, ¿cuál es la forma más rápida y eficiente de hacerlo? Un concepto potencialmente revolucionario, o al menos eso proclaman varios gurúes de los medios digitales, es que los átomos mismos son frecuentemente secundarios. Lo que más importa son los bits.
Así que, ¿qué hay de la gente? Si va a mover a la gente, ¿tiene que mover sus átomos o sólo su información? En principio se podría pensar que mover la información es mucho más fácil; en primer lugar, la información puede viajar a la velocidad de la luz. Sin embargo, en el caso de la gente, hay dos problemas: primero, hay que extraer la información, lo cual no es tan fácil, y luego hay que recombinarla en forma de materia.

Si el transportador acarrea el flujo de materia y la señal de información, este fenómeno de división es imposible. El número de átomos con que terminas tiene que ser el mismo que con el que empiezas. No hay forma posible de replicar gente de este modo. Por otro lado, si sólo fuera enviada la información, uno podría imaginar que se la podría combinar con átomos que podrían estar almacenados para hacer tantas copias como se quisiera de cada individuo.
Quizá la pregunta más fascinante sobre la transportación —una que no es usual preguntarse— sea: ¿en qué consiste un cuerpo humano? ¿Somos meramente la suma de todos nuestros átomos? Más precisamente, si se fuera a recrear cada tomo de un cuerpo, precisamente en el mismo estado de excitación en que está en este momento, ¿produciría una persona funcionalmente idéntica que tendría exactamente todas sus memorias, esperanzas, sueños, su espíritu? Tenemos todos los motivos para pensar que este sería el caso, pero es de notar que rozamos una gran cantidad de creencias espirituales acerca de la existencia de un "alma" que es de alguna forma distinta del cuerpo de uno. Después de todo, ¿qué sucede cuando uno se muere? ¿No hay muchas religiones que sostienen que el "alma" puede existir después de la muerte? ¿Qué pasa entonces con el alma durante el proceso de transportación? En este sentido, el transportador sería un maravilloso experimento en espiritualidad. Si una persona fuera transportada y permaneciera intacta y visiblemente inalterada, proveería dramática evidencia de que un ser humano no es más que la suma de sus partes, y la demostración confrontaría directamente una montaña de creencias espirituales.

Los argumentos precedentes sugieren que en ambos sentidos, el práctico y el ético, debería ser mejor imaginar un transportador que acarree un flujo de materia junto con la señal, justo como se nos dice que hacen los transportadores de Viaje a las Estrellas. El problema entonces se convierte en, ¿cómo mover los átomos? El desafío resulta ser energético, aunque en una forma algo más sutil.
¿Qué se requeriría para "desmaterializar" algo en el transportador? Para responder a esto, tenemos que considerar más cuidadosamente una cuestión más simple: ¿qué es la materia? Toda la materia normal está hecha de átomos, que están a su vez hechos de núcleos rodeados por una nube de electrones.
La región ocupada por los electrones externos es aproximadamente 10.000 veces mayor que la región ocupada por el núcleo. Entonces, si los átomos son mayormente espacio vacío, ¿la materia no pasa a través de otra materia? La respuesta a esto es que lo que hace sólida a una pared no es la existencia de las partículas sino de los campos eléctricos entre las partículas.

Estos campos eléctricos no sólo hacen a la materia tangible, en el sentido de evitar que los objetos se atraviesen unos a otros, sino que también la mantienen unida. Por lo tanto, para alterar esta situación normal uno debe superar las fuerzas eléctricas interatómicas. Superar estas fuerzas requerira trabajo, lo cual requiere energía. De hecho, así es como funcionan todas las reacciones químicas.
La configuración de conjuntos individuales de átomos y sus enlaces recíprocos son alterados a través del intercambio de energía.
La energía de unión entre los átomos es, no obstante, minúscula comparada con la energía de unión de las partículas —protones y neutrones— que comprenden los núcleos increíblemente densos de los átomos. Las fuerzas que mantienen unidas estas partículas en un núcleo resultan en energías de unión que son millones de veces más fuertes que las energías de unión atómica. Por lo tanto, las reacciones nucleares liberan una cantidad de energía significativamente mayor que las reacciones químicas, lo cual explica por qué las armas nucleares son tan poderosas.

Finalmente, la energía de unión que mantiene unidas las partículas elementales, llamadas quarks, que componen los protones y neutrones mismos, es todavía mayor que la que mantiene unidos los protones y neutrones en los núcleos. De hecho, es común creer —basados en todos los cálculos podemos utilizar la teoría que describe las interacciones de los quarks— que se requeriría una cantidad infinita de energía para separar completamente los quarks que componen cada protón o neutrón.
Basado en este argumento, uno podría suponer que romper completamente la materia en quarks, sus componentes fundamentales, sería imposible; y lo es, al menos a temperatura ambiente. Sin embargo, la misma teoría que describe las interacciones de los quarks dentro de los protones y neutrones nos indica que si calentáramos los núcleos a más o menos un billón de grados (como un millón de veces más caliente que la temperatura en el centro del Sol), entonces no sólo los quarks interiores perderían su energía de unión sino que en las proximidades de esta temperatura la materia súbitamente perdería casi toda su masa. La materia se convertiría en radiación, o, en el lenguaje de nuestro transportador, la materia se desmaterializaría.

Ahora bien, a fin de poner en movimiento partículas como los protones y neutrones a una velocidad cercana a la de la luz, uno debe entregarles una energía comparable a su energía en estado de reposo. Esto resulta ser cerca de 10 veces mayor que la cantidad de energía requerida para calentar y "disolver" los protones en quarks. No obstante, aun cuando es necesaria más energía por partícula para acelerar los protones a una velocidad cercana a la de la luz, esto sigue siendo más fácil de hacer que depositar y almacenar suficiente energía dentro de los protones el tiempo suficiente para calentarlos y disolverlos en quarks.
Es por esto que hoy podemos contar con enormes aceleradores de partículas —como el Tevatron del Fermilab, en Batavia, Illinois y el CERN en Europa— que pueden acelerar protones individuales hasta superar un 99,9% de la velocidad de la luz, pero todavía no logramos construir un acelerador que pueda bombardear protones con energía suficiente para "fundirlos" en sus quarks constituyentes. De hecho, una de las metas de los físicos que diseñan la siguiente generación de grandes aceleradores es realmente lograr este "derretimiento" de la materia.

Así, los futuros diseñadores de transportadores tendrán una elección. O deberán encontrar una fuente de energía que produzca temporariamente un poder que excede el total de energía consumida hoy en toda la Tierra por un factor de 10.000 aproximadamente, en cuyo caso podrán crear un "flujo de materia" capaz de moverse junto con la información a una velocidad cercana a la de la luz, o podrían reducir los requerimientos totales de energía en un factor de 10 y descubrir una forma de calentar a un ser humano instantáneamente a una temperatura de más o menos un millón de veces la del centro del Sol. Quizás para el siglo XXIII la ciencia y la tecnología puedan hacer realidad la famosa frase "Transportación, Scotty !!!".

"Probablemente sería más fácil caminar que teletransportarse hoy en día".

Información adicional:  https://physics.le.ac.uk/journals/index.php/pst/article/view/558