_____________________________________________

jueves, 27 de octubre de 2011

ALIMENTANDO AGUJEROS NEGROS

Hasta ahora, los especialistas han documentado que los cuásares más luminosos se nutren del choque entre galaxias, pero un grupo internacional de astrofísicos,- (cuyo trabajo fue publicado en la revista The Astrophysical Journal)-, al que pertenece Takamitsu Miyaji, investigador del Instituto de Astronomía (IA) de la UNAM, ha descubierto que los cuásares de brillo moderado, que son los más comunes en el Universo, se alimentan de procesos más locales, como inestabilidades del disco galáctico, vientos estelares, interacciones con nubes de gas molecular y perturbaciones a escala galáctica.

Los núcleos de muchas galaxias del Universo, incluida la Vía Láctea, albergan espectaculares agujeros negros con masas que pueden llegar a ser varios miles de millones de veces la del Sol.
Son sitios que ejercen una imponente fuerza de gravedad de cuya atracción no escapa nada, ni siquiera la luz. Como no pueden verse directamente porque no emiten luz -de ahí su nombre-, los astrónomos los analizan de forma indirecta, a través de los intensos procesos que ocurren mientras tragan materia.

Si un agujero negro está en proceso de tragar materia, los violentos procesos físicos que tienen lugar en su entorno emiten grandes cantidades de radiación que es posible detectar con telescopios.
Los cuásares, las más potentes fuentes de energía del Universo, son estas galaxias que poseen agujeros negros supermasivos que están activamente en la absorción de materia.
Dentro de las actuales fronteras de la astronomía, uno de los problemas que aún está por resolverse consiste en clarificar de dónde procede la gran cantidad de material necesaria para despertar al agujero negro dormido, y disparar los violentos procesos que lo convierten en un cuásar.

La fusión de galaxias es el mecanismo más prometedor sugerido en las últimas décadas para explicar el encendido.
Según esta teoría, las fusiones entre galaxias debidas a choques, hacen que la resultante obtenga una inmensa reserva de gas. Por medio de fuerzas de marea, ese material es conducido al corazón de la galaxia; activa así el hoyo negro y produce inmensas cantidades de radiación, que después los astrónomos pueden observar con ciertos telescopios.
En la época en la que se formaron los primeros cuásares, hace unos 13 mil millones de años, el tamaño del Universo era mucho menor y, por tanto, las colisiones eran frecuentes. De hecho, se han observado en diversas ocasiones evidencias de procesos de fusión en las galaxias huésped de cuásares.

Los estudios indican que los más luminosos que conocemos han encendido su motor central tras sufrir una fusión con otra galaxia.
Pero la interrogante es qué sucede en los cuásares menos brillantes. Para hallar una respuesta, el grupo de científicos referido hizo un estudio que sugiere un mecanismo distinto para el suministro de materia.
La investigación internacional se centró en una pequeña región del cielo conocida como COSMOS, con un tamaño 10 veces mayor al de la Luna, y localizado en el la constelación del Sextante.
Dentro de esa pequeña región, se estudiaron cerca de 600 cuásares. La parte principal del trabajo se realizó con el telescopio espacial de rayos X llamado XMM-Newton, de la Agencia Espacial Europea. Los rayos X corresponden a la luz de mayor energía, sólo por debajo de los rayos gamma. Estos fotones energéticos son emitidos por los procesos físicos más violentos del Universo, y en particular los cuásares irradian una gran parte de su luz con este tipo de energías.
También, se realizó un profundo estudio con el Very Large Telescope (VLT) de la European Southern Organization, para determinar la distancia a la que se encuentran esas fuentes energéticas.

El análisis, que ha tardado más de cinco años en realizarse, reveló que los cuásares observados, que en promedio están a 11 billones de años luz, no están entre los más luminosos del Universo, si no que más bien tienen un brillo moderado.
El equipo también encontró que están embebidos en halos de materia oscura, con masas estimadas mucho mayores que la de aquellos (halos) en que se encuentran los cuásares más brillantes.
De la materia oscura se desconoce su origen, porque no emite luz, pero constituye la mayor parte de la masa de las galaxias, incluidos los cuásares.
La teoría actual de fusión de galaxias para el encendido predice que los cuásares más brillantes tienden a estar en entornos de materia oscura más masivos.
Los resultados encontrados para los poco brillantes son completamente opuestos. Sugieren que el mecanismo de activación es distinto al de fusión de galaxias, y depende de procesos más locales, como inestabilidades del disco de la galaxia, interacciones con nubes de gas molecular, perturbaciones a escala galáctica y vientos estelares.

"Si fuera posible para nosotros pasar a través de un agujero negro, podríamos reaparecer en cualquier punto del universo. Lo que aún no está claro es cómo podríamos elegir nuestro destino, que si planificas tus vacaciones en Virgo no acabes en la nebulosa del Cangrejo". S. Hawking

"End of transmission"


miércoles, 26 de octubre de 2011

ESPECTROS ASTRONOMICOS DE VIDA

Un equipo de astrónomos de la Universidad de Hong Kong ha encontrado compuestos muy complejos en una sustancia orgánica que se encuentra comúnmente en todo el universo y que contiene una mezcla de compuestos aromáticos y alifáticos. Los expertos han señalado que los compuestos son tan complejos que sus estructuras químicas recuerdan a las de carbón y el petróleo, ambos restos de vida antigua.

Ante este hallazgo, que ha sido publicado en la revista 'Nature', los científicos creen que este tipo de materia orgánica puede provenir sólo de organismos vivos y que la síntesis de los compuestos orgánicos puede tener lugar en el espacio, incluso sin formas de vida presentes.
Para llevar a cabo este estudio, los investigadores estudiaron un conjunto de emisiones infrarrojas detectadas en estrellas, en el espacio interestelar y en galaxias. Estas muestras espectrales son conocidas como "emisión de infrarrojos no identificada".

Durante más de dos décadas, la teoría más aceptada sobre el origen de estas emisiones apunta a que provienen de moléculas orgánicas simples hechas de átomos de carbono e hidrógeno, llamadas hidrocarburos aromáticos policíclicos (HAP), sin embargo, a partir de los nuevos datos tomados por el Observatorio Espacial Infrarrojo y el Telescopio Espacial Spitzer, se ha puesto de manifiesto que los espectros astronómicos tienen características que no se pueden explicar por las moléculas HAP.

El equipo propone que las sustancias que generan estas emisiones de infrarrojos tienen una estructura química mucho más compleja. Mediante el análisis de los espectros de polvo de estrellas, formado durante las explosiones de estrellas llamadas novas, los investigadores muestran que las estrellas producen estos compuestos orgánicos complejos en escalas de tiempo extremadamente cortas, de semanas de duración.

Las estrellas no solo producen la materia orgánica compleja, sino que también la expulsan al espacio. El nuevo trabajo apoya la idea, propuesta anteriormente por el profesor Sun Kwok (uno de los autores del estudio actual), de que las estrellas viejas son fábricas moleculares capaces de fabricar compuestos orgánicos.

"El trabajo ha demostrado que las estrellas no tienen problemas a la hora de producir compuestos orgánicos complejos en condiciones próximas al vacío", ha explicado Kwok, que ha añadido que "en teoría es imposible pero tras las observaciones se ha comprobado que ocurre".

Para los científicos, lo más interesante, es que el polvo de estrellas orgánico es similar en estructura a los complejos compuestos orgánicos encontrados en los meteoritos. Dado que los meteoritos son restos de los inicios del Sistema Solar, los resultados plantean la posibilidad de que las estrellas fueron las que enriquecieron el Sistema Solar con compuestos orgánicos.

"Somos polvo de estrellas, una mota solitaria en la inmensa oscuridad cósmica". Carl Sagan


"End of transmission"


martes, 25 de octubre de 2011

EL UNIVERSO NACIO GIRANDO

El universo se expande y acelera a la vez. Hasta ahí, bien, ahora, sin embargo, resulta que también podría estar girando. Eso es lo que el físico Michael Longo, de la Universidad de Michigan en Ann Arbor, cree haber descubierto. Si esto es así, supondría seguramente una gran revisión de lo que asumimos sobre el cosmos, y tal vez, una solución a uno de sus mayores misterios, el hecho desconcertante de la propia existencia de la materia.

En el corazón de la historia hay una regla básica llamada ley de conservación de la paridad. La naturaleza, dice, no discrimina entre procesos físicos, objetos y sus imágenes espejo. Pongamos una perinola: no gira en sentido horario y antihorario de ninguna manera fundamentalmente diferente. En la abreviatura matemática, podemos señalar que una cantidad llamada paridad sigue siendo la misma como sea que lances la coordenada espacial y tener al punto las cosas o que se muevan en la dirección opuesta.

Entre el día de Navidad y el Año Nuevo de 1956, un grupo de físicos, liderados por Chien-Shiung Wu estaba estudiando la desintegración beta radiactiva del espín del núcleo de cobalto 60, en la National Bureau of Standards de Washington DC. Suponiendo la conservación de la paridad, los núcleos deberían haber emitido una partícula beta, o un electrón, tanto en la misma frecuencia de la dirección de su espín, como en la contraria.

Pero no lo hicieron. Alrededor del 70 por ciento de los electrones se emiten contra el spin nuclear. La fuerza nuclear débil, que gobierna la desentegración beta, favorece que los objetos y procesos puedan moverse en ciertas direcciones. Este descubrimiento fue crucial en el posterior establecimiento del modelo estándar de la física de partículas, y los dos teóricos que había propuesto el efecto, Tsung-Dao Lee y Chen Ning Yang, fueron galardonados con el premio Nobel al siguiente año.

Así que, si esto ocurre a pequeña escala, la conservación de paridad también podría haberse pasado por alto a gran escala, y cómo no, en la más grande. Esa es la cuestión que Longo comenzó a reflexionar hace pocos años. “El hecho de que el universo podría violar la paridad fue fascinante”, señala.

La asunción de la conservación de paridad cósmica está ligada a lo que se conoce como el principio cosmológico: en donde quiera que estés en el universo y en la dirección en que se mire, las cosas en promedio tienen el mismo aspecto. El universo no sabe de izquierda o derecha, de hecho, no sabe nada de sitios concretos ni direcciones. En cuanto a los fundamentos filosóficos de la cosmología moderna, no hay cosa más fundamental que eso.

Esto hace que los hallazgos de Longo sean si cabe más extraños. En 2007, examinó la base de datos de Sloan Digital Sky Survey (SDSS), un proyecto que desde el año 2000 ha estado usando un telescopio de 2,5 metros en el Observatorio Apache Point en Sunspot, Nuevo México, para recoger las imágenes de cerca de un millón de galaxias en el cielo del norte. Estaba buscando las galaxias espirales, cuyos brazos giratorios eran claramente visibles, mostrando que la dirección de las galaxias estaban girando.

No fue algo fácil. Muchas galaxias espirales se nos presentaban en un ángulo enfrentado, de forma que no se veían claramente sus brazos, mientras que las explosiones de formación estelar sugieren que las colisiones y fusiones recientes podrían haber interrumpido su espín original. Longo, pronto modeló unos 2.817 ejemplos claros con las primeras 40.000 galaxias, situadas a 540 millones años de luz.


En equiparidad de condiciones, se podría esperar que, en general, estas galaxias siguieran girando en direcciones aleatorias, de acuerdo a las condiciones locales de cuando se formaron. Y de hecho ese era el caso. En la mayoría de los sectores del cielo norte, había un mismo número de galaxias se rotaban hacia la derecha, en el sentido del reloj, y hacia la izquierda, en sentido contrario. Pero en una sola dirección, a unos 10 grados respecto al eje de rotación de nuestro propia galaxia, hay más espirales zurdas que diestras. Esto era intrigante, pero nada más. “El resultado fue positivo, pero con ese número de galaxias, la significación estadística aún era marginal”, apuntaba Longo.

En 2010, ya había 230.000 galaxias disponibles en la base de datos del SDSS, y Longo decidió echar otro vistazo. Esta vez, necesitó un equipo de estudiantes graduados para repetir su análisis. Terminaron con una muestra de 15.158 galaxias espirales de clara rotación, la más lejana a unos 1,2 mil millones de años luz de distancia.

El efecto no sólo seguía ahí, sino que era más fuerte. Esta vez había sólo un 0,006 por ciento de posibilidades de que fuese una casualidad estadística.
Fue entonces cuando Longo miró al cielo del hemisferio sur, que no estaba cubierto por la SDSS. Ya en 1991, los astrónomos Hajime Sugai, de la Universidad de Tokio, y Masanori Iye, del Observatorio Astronómico de Japón, habían compilado un catálogo de las direcciones de giro de alrededor de 8.000 galaxias sureñas, usando los datos del telescopio del Observatorio Europeo del Sur en La Silla, Chile. Ellos habían estado buscando un efecto “dipolo” similar de las galaxias, pero abandonaron el proyecto. “Vimos algunas pruebas de la presencia de este dipolo”, decía Masanori. “Pero no fue muy significativa.”

Pero Longo vio algo que se había escapado. Estirando al extremo lo que el telescopio podía ver, a lo largo del mismo eje del cielo del sur, había un claro exceso esta vez, de espirales diestras. Era el mismo efecto, sólo que al revés.

Para Longo, eso apuntaba a una conclusión alucinante. “Si esa asimetría es real, esto significa que el universo tiene un momento angular neto”. El momento angular, como la energía, no puede ser creado ni destruido, lo que significa que también debió haber nacido de un espín. Sólo eso explicaría por qué las galaxias se alinéan a lo largo (el eje del espín original del mismo universo), reciben el impulso extra que hace que la mayoría de ellas giren en la misma dirección.

Y el universo puede estar girando todavía, aunque no lo sepamos. “No podemos ver el giro, porque estamos dentro, y no podemos mirar hacia afuera, así que directamente no podemos demostrar que está girando”, explica Longo. Sin embargo, si la idea se mantiene en pie, es realmente una bomba. El universo no es el mismo dondequiera que se mire, sino que tiene direcciones especiales en las que ciertas cosas ocurren y otras no. La paridad resulta violada, el principio cosmológico se debilita.

Vamos a empezar con lo que no quiere decir: la Tierra no se encuentra en un lugar especial. Aunque podría parecer que estamos en una posición ideal para mirar a lo largo del eje espín único del universo, todo el espacio se expandió de un solo punto infinitamente pequeño en el Big Bang. El eje del giro inicial se ha ido expandiendo con él, de tal manera que, donde quiera que estés en el cosmos, ahí también estará, apuntando en la misma dirección.
En cuanto a lo que podría haber establecido el espín del universo, o lo que las observaciones puedan decir acerca de la posibilidad de otros universos más allá, Longo prefiere no especular. En cuanto al funcionamiento interno de nuestro cosmos se refiere, sus hallazgos han establecido, al menos, una perspectiva cosmológica de un espín. “Quedé impresionado”, señalaba el teórico Stephon Alexander de Haverford College, en Pensilvania. Se ajusta bien con una idea pujante durante la mejor parte de la década, esa que también podría explicar otra asimetría:
¿por qué la materia domina la antimateria en nuestro cosmos?

Este es uno de los problemas más espinosos de la física. El modelo estándar indica que hay una absoluta simetría entre materia y antimateria, pero si ambas se crearon en igual cantidad después del Big Bang, se habrían aniquilado por entero mutuamente en una sola fracción de segundo. La existencia de galaxias, estrellas, planetas, el polvo y la vida, están hechas de materia…, por decirlo suavemente, toda una vergüenza para esta teoría de tan enorme éxito.

De manera natural se podría haber diseñado el dominio de la materia: a través de un fenómeno conocido como violación CP. Esta idea surgió a partir de preguntarse si la fuerza nuclear débil no respeta la sola paridad (P), ¿respeta esto la simetría?. Una respuesta es que podría respetar la paridad y la conservación de carga (C) en conjunto. En efecto, esto significa que si usted toma un proceso, como una reacción de partículas, se la da la vuelta en un espejo y, simultáneamente, cambia todas las partículas en partículas idénticas de carga opuesta, sus antipartículas, la reacción debería proceder como antes.

Pues no es así. Unos experimentos de la década de 1960 revelaron que la simetría CP tambión se rompe por la fuerza débil, una reacción y su imagen invertida, proceden con la inversión de carga equivalente a velocidades ligeramente diferentes. El físico soviético Andrei Sajarov, demostró en 1967 que un enorme proceso de violación CP se produjo en el universo temprano, cuando la materia y la antimateria se estaban produciendo, lo que podría explicar por qué una se impuso a la otra.

Pero, ¿qué proceso? En 2004, Alexander, entonces en el Stanford Linear Accelerator Center en Menlo Park, California, y sus colegas, identificaron un posible culpable:
la gravedad, la única de las cuatro fuerzas fundamentales de la naturaleza que no está cubierta por el modelo estándar.

Ellos demostraron que un proceso en dos pasos podía lograr el truco deseado. Si la gravedad violó la ley de la conservación de paridad en los primeros instantes después del Big Bang, habría producido ondulaciones en el espacio-tiempo, las ondas gravitacionales, de forma asimétrica. Este sería el momento en que el universo entró en un período conocido como inflación, durante el cual se expandió colosalmente y se produjo tanto materia como antimateria. Las ondas gravitacionales asimétricas habrían interferido con el campo causando la inflación, es decir,
el sesgo de producción de la materia sobre la antimateria.
“Este trabajo tenía una belleza en lo concerniente a la amplitud de las ondas gravitacionales con la asimetría de materia-antimateria”, señalaba el físico teórico Robert Brandenberger, de la Universidad McGill en Montreal, Canadá. “Si un nuevo mecanismo relaciona otros dos, en principio, de muy diferentes cantidades observacionales, se convierte automáticamente en un modelo teórico muy interesante”.
Dejando de lado la gran pregunta de qué pudo hacer que la gravedad violara la paridad en primer lugar, Alexander encontró al menos algún socorro a su modelo en el fondo cósmico de microondas. Este remanente del Big Bang que se ha estado propagando hacia nosotros desde todas partes, desde que el universo se expandió y más tarde se enfrió lo suficiente para dejar que los fotones lo atravesaran, dentro de sus primeros 370.000 años de existencia. La radiación tiene una temperatura uniforme, de unos 2,725 grados Kelvin, pero si se mira de cerca se ven los puntos más cálidos y los más fríos. Esto se ve salpicar a través del cielo, excepto cuando se mira a escalas más grandes. Entonces, algunos de los puntos parecen comenzar a alinearse, todos apuntando más o menos en la misma dirección. En 2005,
Kate Land y João Magueijo, del Imperial College de Londres, llamó a esta alineación el “eje del mal“.

El equipo WMAP de la NASA, que ha creado mapas increíblemente detallado de la radiación cósmica de fondo, dice que aunque “el hecho de una alineación no se pone en duda”, se explica mejor como una casualidad estadística
Otros no están tan seguros, y la cuestión de los extraños patrones en la radiación de fondo no va a desaparecer. En cuanto concierne a Alexander, es justo el tipo de efecto que las ondas gravitacionales asimétrica producirían.

Curiosamente, el eje por el cual las galaxias parecen estar rotando, ya sean de manera más o menos zurda o diestra, es en la misma dirección que el eje del mal. “Esto sugiere que están relacionados”, aduce. Y piensa que ya sabe cómo.

Es demasiado pronto para que haya incorporado los detalles de la asimetría galáctica en su trabajo de forma explícita, sin embargo, él ve un hilo sugerente: un universo inicial girando ocasionaría una asimetría que violaría la paridad de la gravedad, que permitiría a la materia triunfar sobre su rival de antimateria. Y ese proceso dejó dos huellas: el eje del mal en la radiación cósmica de fondo, y la alineación poco visible de las galaxias que Longo ha descubierto.

Por suerte, pronto tendremos los datos para decidir si es ficción o realidad. El satélite Planck de la Agencia Espacial Europea, está configurado para proporcionar el mapa más detallado de la radiación cósmica de fondo que jamás se haya hecho. Si Planck, así como WMAP, encuentran un eje del mal, sería la mejor señal más de que el efecto es genuinamente real.

El equipo de Masanori también planea utilizar el Observatorio Astronómico de Japón, de de 8,2 metros, y el Telescopio Subaru, en Mauna Kea, Hawaii, para estudiar las galaxias norteñas con mayor detalle. “Vamos a ser capaces de ‘ver’ un gran número de galaxias con una resolución mucho más fina, y así juzgar la orientación del espín con más facilidad”, explica. El Large Synoptic Survey Telescope, con un espejo de 8,4 metros y una cámara de 3.200 megapíxeles, estudiará los cielos sureños de Cerro Panchón, en Chile, a partir de 2020. Eso debería resolver la cuestión del espín del universo de una manera u otra.

"Mi mente es la interrogación del universo y gira siempre sobre el mismo tema".


"End of transmission"


lunes, 24 de octubre de 2011

SER HUMANO ES SER CUANTICO

La falta de claridad y la lógica extraña de la forma en como las partículas se comportan se aplica sorprendentemente bien a la forma en que somos y pensamos los seres humanos. El mundo cuántico desafía las reglas de la lógica ordinaria. Las partículas habitualmente ocupan dos o más lugares al mismo tiempo, y ni siquiera tienen propiedades bien definidas, hasta que se miden. Todo es extraño, pero cierto – la teoría cuántica es la teoría científica más exacta en las pruebas y sus matemáticas se adaptan perfectamente a las rarezas del mundo atómico.

Sin embargo, las matemáticas realmente valen por sí mismas, independiente de la teoría. De hecho, gran parte de ella se inventó mucho antes de que existiera la teoría cuántica, sobre todo por el matemático alemán David Hilbert. Ahora, está comenzando a parecer como si se podría aplicar a mucho más que a la física cuántica, y posiblemente incluso a la forma de pensar de los seres humanos.

El pensamiento humano, lo que ya muchos de nosotros sabemos, a menudo no respeta los principios de la lógica clásica. Cometemos errores sistemáticos en el razonamiento de probabilidades, por ejemplo. El Físico Aerts Diederik de la Universidad Libre de Bruselas, Bélgica , ha demostrado que estos errores realmente tienen sentido dentro de una lógica más amplia basada en las matemáticas cuánticas.

Puede sonar absurdo imaginar que las matemáticas de la teoría cuántica tiene algo que decir sobre la naturaleza del pensamiento humano. Esto no quiere decir que hay algo cuántico sobre todo lo que ocurre en el cerebro, sólo que el “cuanto” en las matemáticas realmente no es una propiedad unicamente de la física, y resulta ser mejor que las matemáticas clásicas en la captura de las formas difusas y flexibles que los humanos usan en sus ideas.

“Las personas siguen a menudo una forma diferente de pensar que la dictada por la lógica clásica”, dice Aerts. “Las matemáticas de la teoría cuántica resulta más adecuadas para describir el pensamiento humano bastante bien.”

Sin embargo, una gran pregunta sigue vigente: ¿por qué la lógica cuántica es adecuada para describir el comportamiento humano? Peter Bruza en Queensland University of Technology en Brisbane, Australia, sugiere que la razón tiene que ver con el hecho de que nuestro cerebro finito puede ser abrumado por la complejidad del medio ambiente aún cuando se tengan que tomar medidas a largo plazo antes de que pueda calcular su camino a la certeza exigida por la lógica clásica.
La posibilidad de desarrollar una conciencia cuántica y convertirnos finalmente en “seres cuanticos” depende de numerosas variables, y exige que no seamos primero exterminados por el impacto de un asteroide, una supernova cercana, o gigantescas erupciones volcánicas, o que nuestra civilización no sea diezmada por una guerra mundial, o bien por la escasez de recursos exacerbadas por el cambio climático .

La vida como la conocemos, se basa en la química, pero qué tal si la vida en otros lugares no se basa en la química, pero si en la mecánica cuántica?, se pregunta Randy D. Allen, del Departamento de Bioquímica y Biología Molecular, de la Universidad Estatal de Oklahoma.

Una forma de vida alienígena que puede manipular las partículas subatómicas como nuestras células manipulará los compuestos químicos. Los seres humanos han existido como especie por menos de un millón de años y somos, por lo que sabemos, la única especie en la Tierra que tiene incluso la menor idea de la física.

Sólo se descubrió el átomo y se aprendió a dar rienda suelta a su poder, Allen observa, en el siglo pasado: “Nuestra comprensión de la mecánica cuántica fue rudimentaria, en el mejor de los casos, sin embargo, estamos a punto de desarrollar computadoras cuánticas prácticas que prometen potencia de cálculo ilimitada.

Allen observó. “Es concebible que, en los miles de millones de años desde el Big Bang, otros organismos evolucionaron en algún momento y un lugar que ya dominan la mecánica cuántica. “Digamos que son inteligentes, organismos sociales, con una química basada en el metabolismo, en el fondo no muy diferentes de nosotros mismos, se desarrollaron en un planeta en algún lugar del universo “, añadió Allen.

Su insaciable curiosidad acerca del universo (o, como nosotros, su deseo insaciable de su exploración) los llevó a desarrollar eficientes ordenadores cuánticos. Se dieron cuenta de que, con estos equipos, la totalidad de su existencia puede ser computarizada, todos los recuerdos y experiencias de su vida, todas las emociones y motivaciones, podría ser trasladadas a un colectivo ”cerebro cuántico", otra vez la ciencia ficcion podria adelantarse con los seres Borg que usan un colectivo para conquistar otros seres en Viaje a las Estrellas-Nueva Generacion.

Tal vez sólo los seres humanos, con nuestras mentes aparentemente ilógicas, somos los únicos capaces de descubrir y comprender la teoría cuántica. Ser humano es ser cuántico.

"El cerebro no es un vaso por llenar, sino una lámpara por encender". Plutarco


"End of transmission"


miércoles, 19 de octubre de 2011

MISTERIOSA ENERGIA DE FUENTE DESCONOCIDA

El equipo de Fermi de la NASA ha publicado recientemente el segundo catálogo de fuentes de rayos gamma detectada por el telescopio de su satélite de Gran Área (LAT).De las 1873 fuentes encontradas, casi 600 son un misterio completo. Nadie sabe lo que son.

"Fermi ve los rayos gamma que provienen de direcciones en el cielo donde no hay objetos evidentes probabilidades de producir rayos gamma", dice David Thompson, científico del proyecto Fermi Adjunto del Centro de Vuelo Espacial Goddard.
Los rayos gamma son, por su propia naturaleza, heraldos de gran energía y violencia. Son una forma super-energía de la luz producida por fuentes tales como los agujeros negro y explosiones de estrellas masivas. Los rayos gamma son tan energéticos que las lentes normales y los espejos no funcionan. Como resultado, con los telescopios de rayos gamma no siempre se pueden obtener un enfoque lo suficientemente fuerte para determinar exactamente donde estan las fuentes.

Las dos terceras partes de las fuentes del nuevo catálogo de los científicos de Fermi pueden, por lo menos con una certeza razonable, localizar a un conocido objeto productor de rayos gamma, como un pulsar o blazar. Sin embargo, un tercio restante - las "fuentes misteriosas" - han dejado perplejos a los investigadores, al menos por ahora. Y ellas son las más tentadoras.

"Algunas de las fuentes de misterio podrían ser nubes de materia oscura - algo que nunca se ha visto antes", especula Thompson.
Alrededor del 85% de la masa gravitatoria del universo es materia oscura. Las cosas que vemos hace el resto. La materia oscura es algo que tira de las cosas con la fuerza de su gravedad, pero no pueden ser detectadas de otra manera. No brilla - no emite o no hay dispersión de la luz - de ahí el adjetivo "oscura".
Los astrónomos no pueden detectar la materia oscura directamente a través de los telescopios ópticos o de radio. Pero la materia oscura podría brillar en rayos gamma.
"Hemos estado utilizando Fermi de búsqueda de materia oscura durante mucho tiempo", dice el investigador principal del Telescopio de Gran Área, Peter Michelson de la Universidad de Stanford.
Algunos investigadores creen que cuando dos antipartículas de materia oscura chocan entre sí, se aniquilan, produciendo rayos gamma. Nubes concentradas de materia oscura podrían constituir una fuente de rayos gamma en determinadas longitudes de onda detectables por Fermi.

"Si vemos un bache en el espectro de rayos gamma - una estrecha línea espectral a altas energías que corresponden a la energía de las partículas que se aniquilan - podrían ser los primeros en" capturar "materia oscura", dice Michelson.
El equipo planea continuar con la observación de las fuentes de misterio. Fermi escanea todo el cielo cada tres horas, y esta secuencia continua de observaciones "se acumula" para que los investigadores analicen los rayos gamma. Hasta ahora, los rayos gamma fueron muy pocos los que se han sido recogidos de las fuentes de misterio para llegar a conclusiones definitivas.
Otro, menos oscura posibilidad es que algunas de las fuentes de misterio sean cúmulos de galaxias en colisión. Según Michelson y Thompson, los choques de tal magnitud podría generar grandes olas de choque súper escalares que aceleran las partículas. Otras de las fuentes, dicen, podría ser un fenómeno nuevo, tal vez algo relacionado con la galaxia agujero negro.

Cuando todo está dicho y hecho, muchas de las fuentes misterio podrían llegar a ser familiares. "Probablemente puedan ser miembros de las clases de fuentes que se saben - , pero no han sido reconocidas todavía, como los pulsares descubiertos, los sistemas binarios, y los remanentes de supernova", dice Michelson.
"Por supuesto que estamos esperando algo realmente exótico como la materia oscura, pero tenemos que mirar por primera vez en todas las otras opciones"."Fermi es una misión en curso. Vamos a continuar la búsqueda de respuestas a estos enigmas y tal vez tener aún más sorpresas." dice Thompson.

"Hay algo en la personalidad humana que se resiente a las cosas claras, e inversamente, algo que atrae a los rompecabezas, a los enigmas, y a las alegorías". Stanley Kubrick

"End of transmission"


martes, 18 de octubre de 2011

EVOLUCION DESDE EL BIG BANG A LA VIDA CONCIENTE


Asi como en su momento de la mano de uno de mis mentores Carl Sagan, pude leer sobre la evolucion del Hombre y su mente, en el premiado libro " Los dragones del Eden", ahora otro escritor Peter Shaver, nos habla de como comenzó el Universo, como se originaron los elementos químicos, cómo la vida pudo haber comenzado en la Tierra, cómo el hombre, las hormigas y las bacterias están relacionadas entre sí, o por qué los seres humanos piensan.

Se formulan ciertas preguntas en este libro, a saber: ¿Cómo empezó todo? ¿De dónde venimos? ¿A dónde vamos? ¿Estamos solos?
Este libro trata a esas preguntas de una manera entretenida sobre la base de nuestro conocimiento de la ciencia moderna. Se abre nuestros horizontes hacia la comprensión de la historia del universo y el origen y la evolución de la vida en el contexto de la evolución cósmica."

Un libro de MENTE ABIERTA, que abre la puerta para una discusión informada de la continuidad de los procesos evolutivos desde el big bang a la aparición de la mente ...

Peter Shaver ha producido un notable libro que cubre un amplio alcance, ofreciendo una visión espléndida de los intrincados procesos que nos conectan con el universo, y que permitió que la vida compleja tuviera un inicio simple.

En este relato maravillosamente conciso, el astrofísico Peter Shaver hace esas preguntas y más, y ademas evalúa hasta qué punto la ciencia moderna ha llegado a dar respuestas.
Cualquier persona que se ha preguntado alguna vez quiénes somos y de dónde venimos debería leer este libro, es para un público muy amplio y que abarca gran parte del pensamiento científico actual de una manera concisa.

El autor muestra con éxito muchos de los grandes problemas filosóficos que han fascinado a la humanidad durante siglos, desde el origen del mundo, la evolución de la vida a la naturaleza de la conciencia que está siendo progresivamente desplazada desde el dominio de la filosofía o la especulación al de la ciencia rigurosa.

Este libro sigue la estela evolutiva desde el Big Bang hace 13.7 billones de años a la vida consciente de hoy en día.Abarca una amplia gama de temas, incluyendo el origen y evolución de nuestro universo, la naturaleza y el origen de la vida, la evolución de la vida incluidas las cuestiones del nacimiento y la muerte, la evolución de la cognición, la naturaleza de la conciencia, la posibilidad de vida extraterrestre y el futuro del universo.

El libro está escrito en un estilo narrativo, ya que estos temas son parte de una sola historia. Se concluye con una discusión sobre la naturaleza y el futuro de la ciencia.

“El Universo comienza a parecerse más a un gran pensamiento que a una gran maquinaria.” J. JEANS, “El Universo Misterioso”.


"End of transmission"



lunes, 17 de octubre de 2011

NEUTRINOS WARP: CASO CERRADO ?

El movimiento relativista de los relojes a bordo de los satélites GPS tiene en cuenta con exactitud el efecto superlumínico. Ya han pasado tres semanas desde la extraordinaria noticia de que unos neutrinos que viajaron entre Francia e Italia se registró que lo hacían más rápido que la luz. El experimento, conocido como OPERA, encontró que las partículas producidas en el CERN, cerca de Ginebra, llegaron al Laboratorio Nacional Gran Sasso, en Italia, unos 60 nanosegundos antes de lo que permite la velocidad de la luz.


El resultado ha enviado una onda de entusiasmo a través de la comunidad física. Desde entonces, han aparecido más de 80 artículos en arXiv tratando de desacreditar o explicar el efecto. Huelga decir, sin embargo, que el sentimiento general es que el equipo de OPERA ha debido pasar algo por alto.


Ronald van Elburg de la Universidad de Groningen en los Países Bajos presenta un argumento convincente de que ha encontrado el error. En primer lugar, vamos a revisar el experimento, que se basa en una idea muy simple: una medida de la distancia y el tiempo.


La distancia es sencilla. La posición de la producción de neutrinos en el CERN es bastante fácil de medir con GPS. La posición del Laboratorio de Gran Sasso es más difícil de ubicar debido a que está a un kilómetro debajo de la montaña. Sin embargo, el equipo de OPERA dice que ha establecido la distancia de 730 km con un margen de error de 20 cm o menos. El tiempo de vuelo de los neutrinos es mas difícil de medir. El equipo de OPERA dice que puede evaluar con precisión el instante en que se crean los neutrinos, y el instante en el que se detectan, usando relojes en ambos extremos.


Pero la parte difícil es mantener los relojes de ambos extremos exactamente sincronizados. El equipo hace esto usando satélites GPS, cada uno emitiendo una señal temporal de alta precisión desde una órbita a unos 20 000 km de altura. Esto introduce una serie de complicaciones adicionales que el equipo tiene que tener en cuenta, tales como el tiempo de viaje de las señales GPS hacia el suelo.


Pero van Elburg dice que hay un efecto que el equipo de OPERA parece haber pasado por alto: el movimiento relativista de los relojes GPS. Es fácil pensar que el movimiento de los satélites es irrelevante. Después de todo, las ondas de radio que portan la señal temporal deben viajar a la velocidad de la luz, sin importar la velocidad de los satélites.


Pero hay una sutileza adicional. Aunque la velocidad de la luz no depende del marco de referencia, el tiempo de vuelo sí que lo hace. En este caso, hay dos marcos de referencia: el experimento en tierra y los relojes en órbita. Si estos se mueven uno respecto al otro, entonces tiene que tenerse en cuenta.


Entonces, ¿cuál es el movimiento de los satélites con respecto al experimento OPERA? Estas sondas orbitan de oeste a este en un plano inclinado 55 grados respecto al ecuador. Es significativo que este ángulo esté aproximadamente alineado con la ruta de vuelo de los neutrinos. Su movimiento relativo es entonces fácil de calcular. Por lo tanto, desde el punto de vista de un reloj de a bordo de un satélite GPS, las posiciones de la fuente y el detector de neutrinos están cambiando. “Desde la perspectiva del reloj, el detector se mueve hacia la fuente y, por consiguiente, la distancia recorrida por las partículas observado desde el reloj, es más corta”, dice van Elburg.


Con esto quiere decir más corta que la distancia medida en el marco de referencia sobre el terreno. El equipo de OPERA pasó por alto esto debido a que pensaba que los relojes estaban en tierra, y no en órbita.

¿Cómo de grande es este efecto? Van Elburg calcula que debería provocar que los neutrinos llegasen 32 nanosegundos antes. Pero esto debe duplicarse, dado que se genera el mismo error en cada extremo del experimento. Por lo que la corrección total es de 64 nanosegundos, casi exactamente lo que observó el equipo de OPERA. Esto es impresionante, pero no como para decir que el caso está cerrado. La revisión por pares es una parte esencial del proceso científico, y este argumento debe mantenerse bajo el escrutinio de la comunidad en general y del equipo de OPERA en particular.

Lejos de romper la Teoría de la Relatividad de Einstein, la medida por encima de la velocidad de la luz resultará ser otra confirmación de la misma.


Este episodio esta cargado de ironia entonces......


"Cuando más dura la ironía, menos enérgico tendrá que ser el modo en que se lo diga". Raymond Thornton Chandler



"End of transmission"


jueves, 13 de octubre de 2011

COMUNICACIONES ESPACIALES POR LASER



Una nueva tecnología presentada por la NASA, denominada Laser Communications Relay Demostration (LCRD), promete convertirse en el sistema de comunicaciones espaciales definitivo.
Las comunicaciones rápidas y eficientes constituyen uno de los más importantes factores a la hora de idear una estrategia de expansión eficiente. Si los seres humanos que enviaran en el futuro al espacio no tienen forma de transmitirnos lo que están viendo o pedirnos ayuda si lo necesitan, estarán en problemas. Y en el otro sentido ocurre lo mismo: necesitamos poder enviar datos, información y respuestas a nuestras colonias lejanas. Esto ha sido así desde la época en que las “comunicaciones” eran rollos de papel enviados por barco de un extremo al otro del mundo hasta hoy, cuando los hombres exploran el espacio.

La NASA está especialmente interesada en implementar sistemas de comunicaciones capaces de cubrir enormes distancias y que posean un ancho de banda lo suficientemente grande como para que los datos que envían sus vehículos robóticos (y los que enviarán dentro de algunos años sus astronautas) lleguen sin demora a nuestro planeta. A la sonda Mars Reconnaissance Orbiter (MRO), que orbita Marte, por ejemplo, le lleva unos 90 minutos transmitir una fotografía a la Tierra. Si dispusiésemos de un sistema mejor, ese tiempo podría reducirse a unos pocos minutos.

Es por ello que la agencia ha invertido 175 millones de dólares para desarrollar tres proyectos relacionados con la conquista del espacio, uno de los cuales intenta justamente solucionar este problema. Se trata de una tecnología denominada Laser Communications Relay Demostration (LCRD). La LCRD -como su nombre lo indica- utiliza un rayo láser para establecer una conexión óptica entre el transmisor y receptor, y posee un ancho de banda de unos 100Mbps. Las imágenes del MRO, por ejemplo, solo demorarían 5 minutos en transmitirse por ese canal.
La NASA se ha decidido por el uso del láser porque sabe que para una masa, tamaño y carga energética determinada, un sistema óptico es capaz de proporcionar tasas de transmisión de datos mucho mayores que las permitidas por las frecuencias de radio utilizadas normalmente. Pero no todas son buenas noticias, ya que un sistema como el LCRD requiere de que el transmisor y el receptor “se vean” entre sí, algo que suele ser bastante complicado en algunas oportunidades, sobre todo cuando uno de los extremos de la comunicación se encuentra sepultado debajo de una capa atmosférica lo suficientemente espesa, como la que posee la Tierra. Pero aún teniendo en cuenta estas dificultadas, la agencia cree que el LCRD funcionará bien como enlace entre la Tierra, la Luna y Marte, permitiendo incluso la transmisión de vídeo en vivo en HD.

Y es que una de las consecuencias de implantar una tecnología de comunicaciones tierra-espacio con láser en lugar de con ondas de radio es la velocidad de dichas comunicaciones. En la práctica esto haría que las señales enviadas a/desde Marte fuesen 20 veces más veloces, con todo lo que ello implica en cuanto a la minimización del retardo no ya en los mensajes de voz sino para controlar de forma remota los artefactos enviados allí por el hombre, recibir sus datos e imágenes o controlar los rover de manera remota sin tener que esperar minutos entre una y otra acción.



Con todo el sistema no es precisamente sencillo de implementar pues necesita la intervención y sincronización de toda una serie de telescopios, láser, espejos reflectores, equipo de seguimiento… Una red de satélites en órbita sobre la Tierra recibirían la señal desde Marte, reenviándola a las estaciones de seguimiento en la superficie de nuestro planeta desde donde se enviarían a la NASA para ser procesadas.
Por el momento esta tecnología sólo la está desarrollando la propia agencia espacial estadounidense pero es de esperar que en los próximos años otras agencias también avancen en la misma dirección lo que puede abrir un prometedor futuro en las telecomunicaciones posibilitando, por ejemplo, un acceso global a Internet de alta velocidad vía tecnología láser por satélite.

“La mejor forma de predecir el futuro es implementarlo”. David Heinemeier Hansson


"End of transmission"



martes, 11 de octubre de 2011

VELOCIDAD WARP DE LA IMAGINACION

Las noticias recientes de neutrinos que se mueven más rápido que la luz puede ser que haya inducido mi pensamiento acerca de posibles viajes a hipervelocidad o velocidad warp, regreso en tiempo y espacio a mi niñez y todo eso que vemos en la ciencia ficción, pero realmente no hay necesidad de imaginarse algo que pueda moverse más rápido que 300.000 kilómetros por segundo.

De hecho, la idea es ilógica y viola la ley de causalidad, (aunque mi imaginación fue el lapiz con que de niño pinte mis mejores aventuras).
La velocidad de la luz, o 300.000 kilómetros por segundo, podría parecer un límite de velocidad, pero esto es sólo un ejemplo del pensamiento 3 + 1 – en el que todavía no tenemos claro el concepto de las cuatro dimensiones del espacio-tiempo y por lo tanto, pensamos en términos de espacio en tres dimensiones y pensamos que el tiempo es algo diferente. Por ejemplo, aunque nos parece que se necesita un rayo de luz durante 4,3 años para viajar de la Tierra al sistema Alpha Centauri, si tuviera que subirse a una nave espacial en realidad viajariamos a 99,999 por ciento de la velocidad de la luz y por lo tanto llegaría en cuestión de días, horas o incluso minutos a Centauri – dependiendo de cuántos 0,99 segundos se agregan a la proporción de la velocidad de la luz. Esto es así porque, aunque seguiriá bombeando el acelerador del sistema imaginario de mi viaje, la dilatación del tiempo seria cada vez más pronunciada y se mantendria esa dilatación para llegar a destino mucho más rápido.

Con suficientes 0,999 segundos podía cruzar el universo dentro de mi periodo de vida – a pesar de que alguien le vea alejarse a un poco menos de 300.000 kilómetros por segundo-.
Por lo tanto, lo que podría parecer un límite de velocidad a primera vista no es un límite. El efecto de la dilatación del tiempo es insignificante para las velocidades comunes que conocemos en la Tierra, pero aumenta dramáticamente y asintóticamente al acercarse a la velocidad de la luz. Para tratar de comprender la perspectiva de cuatro dimensiones en esto, consideramos que es imposible moverse a cualquier distancia, sin también tener un movimiento a través del tiempo. Por ejemplo, caminar un kilómetro puede tener una duración de treinta minutos -, pero si se ejecuta, sólo puede tomar quince minutos. La velocidad es sólo una medida de cuánto tiempo le toma llegar a un punto distante.

La física relativista le permite elegir cualquier destino que desee en el universo – y con la tecnología adecuada puede reducir el tiempo de viaje a ese destino o a cualquier punto que le guste – siempre y cuando su tiempo de viaje se mantenga por encima de cero.
El único límite del universo que en realidad se nos impone – y es tanto un problema de lógica y de las leyes de causalidad, ya que se trata de física. Se puede viajar a través del espacio-tiempo de varias maneras para reducir su tiempo de viaje entre los puntos A y B – y usted puede hacer esto hasta que casi se pueda mover entre estos puntos de forma instantánea. Pero no puede hacerlo más rápido que de forma instantánea, ya que podría llegar a B antes de que se haya ido de A. Si pudiera hacer eso, sería imposible y en todo caso puede crear problemas de causalidad – por ejemplo, es posible que decida no apartarse del punto A, a pesar de que ya había llegado a un punto B.

La idea es ilógica y una violación de las leyes de la termodinámica, ya que el universo de repente tendría a dos de nosotros – el otro “yo” que habría aparecido de la nada.
Por lo tanto, no puede moverse más rápido que la luz – no por nada en especial acerca de la velocidad de la luz, sino porque no puede moverse más rápido que de forma instantánea entre dos puntos distantes. La luz se mueve esencialmente al instante, al igual que la gravedad y tal vez otros fenómenos que todavía tenemos que descubrir – pero no debemos esperar descubrir cualquier cosa que se mueva más rápido que de forma instantánea, ya que la idea no tiene sentido. Estamos atrapados en la idea de que unos 300.000 kilómetros por segundo es un límite de velocidad, ya que intuitivamente creemos que el tiempo corre a una velocidad constante universal.

Sin embargo, hemos demostrado en muchas pruebas experimentales diferentes que el tiempo es evidente que no se ejecuta a una velocidad constante entre los distintos marcos de referencia.

"Dar rienda suelta a la imaginación es maravilloso, intentar encontrarle una lógica es hundirse en la locura".

"End of transmission"

viernes, 7 de octubre de 2011

EL PRINCIPIO DEL FIN: COMETA ELENIN

El cometa Elenin, que se iba a acercar a la Tierra en este mes y era muy popular entre los pregoneros del fin del mundo, debe de haberse desintegrado y no causará daño alguno a nuestro planeta, afirmó hoy Leonid Elenin, el astrónomo ruso que lo descubrió en diciembre de 2010.

El científico explicó que “el cometa debía de aparecer en las fotos del observatorio espacial SOHO pero no está”. “Es probable que se haya desintegrado y que veamos en Octubre, a través de telescopios terrestres, algunos fragmentos suyos que aún siguen la misma trayectoria”, dijo el científico, colaborador del Instituto ruso de Matemáticas Aplicadas Keldish.
Agregó que ese objeto celeste “no va a causar ningún daño a nuestro planeta, ni podía haberlo hecho”.

Elenin descubrió el cometa C/2010 X1, que más tarde recibió su nombre, en Diciembre de 2010, mientras examinaba las imágenes transmitidas de áreas cercanas a Júpiter por el observatorio automatizado ISON-NM.
Una cámara de la sonda STEREO-B de la NASA obtuvo en agosto pasado las primeras imágenes de ese cometa que, según las expectativas, se iba a acercar a la Tierra a una distancia mínima, de 34,9 millones de kilómetros, el próximo 16 de octubre.

El cometa Elenin se hizo muy popular entre los sectarios del fin del mundo que dieron una interpretación apocalíptica a su nombre: “Ele”, por las siglas en inglés de “extinction level event”, o “extinción total”, y “nin”, de "Nibiru in November", en alusión al mítico planeta Nibiru cuya aproximación a la Tierra provocaría supuestamente una catástrofe.

En el siglo pasado los cometas han sido las mejores fuentes de paranoia y superstición puesto que sus visitas están a menudo exageradas por los medios de comunicación. Halley, Kohoutek o Shoemaker-Levy 9, y Hale Bopp ofrecieron todos largos periodos de tiempo antes de su máxima aproximación, pero el cometa Hyakutake, llevó con tan sólo unas semanas después de su descubrimiento y resultó irrelevante para las sectas y los profetas del fin del mundo.

Una nova como una supernova, por otro lado, siempre aparecen completamente por sorpresa. Por lo que aún que la gran supernova de 1987 fue visible durante meses alcanzando la tercera magnitud, su aparición no provocó reacciones aparentes.

Por mucho que nos desagrade, la superstición y la paranoia se han instalado en el pensamiento popular. Desgraciadamente después de los increíbles avances científicos de las últimas décadas, las supersticiones permanecen y probablemente permanecerán para siempre.
La desaparición de cometas es un fenómeno frecuente. Astrónomos han registrado la desintegración de seis cometas en este último decenio, por no hablar ya de centenares de rasantes del Sol de la familia Kreutz.

"El nacimiento de la ciencia fue la muerte de la superstición". Thomas Henry Huxley



"End of transmission"

miércoles, 5 de octubre de 2011

ENERGIA EN FORMA DE NEUTRINOS

El detector IceCube situado en la Antártida tiene por objetivo detectar neutrinos cósmicos de alta energía originados en las ráfagas de rayos gamma (GRB) emitidas por enormes agujeros negros en rápida rotación. IceCube es el primer telescopio de neutrinos capaz de detectar los que tienen una energía entre 1 TeV y 1 PeV, y su instalación se finalizó en diciembre de 2010.

Tras meses de observación (parte de ellos solo con la mitad de IceCube mientras la otra mitad estaba en construcción) no se ha observado ningún neutrino cósmico; sin embargo, se esperaba detectar algunos de los emitidos por los 117 GRBs detectados durante dicho periodo. Durante la media hora posterior a la detección del primer rayo gamma de cada GRB no se ha observado ningún neutrino; tampoco durante las 24 horas posteriores se puede asociar ninguno a dicho evento GRB. Ningún físico teórico especialista en GRBs, ni ningún miembro de la Colaboración IceCube podía soñar, ni en sus peores pesadillas, que tras un año de operación de IceCube no se detectara ningún neutrino cósmico.
Todos los modelos teóricos de los GRBs afirman que además de rayos cósmicos emiten de forma simultánea neutrinos, rayos cósmicos y hasta ondas gravitatorias. Otro análisis de la colaboración IceCube que estudió 36900 fuentes astrofísicas puntuales que podrían emitir neutrinos de alta energía en la escala TeV-PeV tampoco encontró ningún neutrino que se pudiera asociar con alguna de estas fuentes.
Las supernovas y los GRBs implican una liberación enorme de energía. Los modelos teóricos indican en ambos que más del 99% de dicha energía se emite en forma de neutrinos. Sin embargo, a diferencia de los fotones, los neutrinos son muy difíciles de detectar debido a las grandes distancias cosmológicas implicadas y su poca interacción con la materia (pequeña sección transversal de interacción).

El detector IceCube es el instrumento principal con el que los astrónomos esperan observar los neutrinos emitidos por los GRBs y otras fuentes. Un volumen de aproximadamente 1 kilómetro cúbico de hielo en el que están enterrados cadenas de fotodetectores.
No haber detectado ningún neutrino cósmico en el rango de energías de entre los TeV (teraelectrónvoltio) y los PeV (petaelectrónvoltio) tiene dos implicaciones posibles. Por un lado, hay que refinar los modelos teóricos sobre los GRBs tratando de encontrar algún proceso que reduzca el flujo de neutrinos emitidos o que cambie sus propiedades de tal manera que al llegar a la Tierra esquiven su detección mediante IceCube. Por otro lado, hay que refinar los modelos teóricos utilizados para interpretar las observaciones de los detectores de IceCube.

Los neutrinos a través de la luz Cherenkov de los muones secundarios que resultan de las interacciones entre los neutrinos y los nucleones (protones o neutrones) en el hielo. El largo camino libre medio de los muones en hielo (de muchos kilómetros) permite analizar un gran volumen de hielo y detectar neutrinos en el régimen de TeV-PeV. Por supuesto, la probabilidad de conversión de un neutrino en un muón en el volumen de hielo del detector no del 100% y se muchos neutrinos pueden atravesar IceCube sin ser detectados. Quizás los miembros de la colaboración han sobreestimado la probabilidad de detección de estos neutrinos. En cualquier caso, habrá que realizar una profunda revisión de los fundamentos teóricos que subyacen al mayor telescopio de neutrinos cósmicos del mundo.



“La ausencia de evidencia no es evidencia de la ausencia”.Carl Sagan

"End of transmission"


martes, 4 de octubre de 2011

PREMIO NOBEL DE FISICA 2011

La Real Academia Sueca de las Ciencias ha decidido otorgar el Premio Nobel de Física de este año “por su descubrimiento de la expansión acelerada del universo a través de observaciones de supernovas distantes” a los científicos Saul Perlmutter, Brian P. Schmidt y Adam G. Riess, todos nacidos en EE UU.
Saul Perlmutter nació en 1959 en Champaign-Urbana (Illinois) y se licenció en 1986 en la Universidad de California en Berkeley (EE UU), donde continúa trabajando en la actualidad. Es profesor de Astrofísica y Jefe del Supernova Cosmology Project.
Por su parte, Brian P. Schmidt nació en 1967 en Missoula (Montana) y se licenció en 1993 en la Universidad de Harvard (Cambridge, EE UU). Además de estadounidense, también tiene nacionalidad australiana. Es Jefe del High-z Supernova Search Team y profesor de la Universidad Nacional de Australia en Weston Creek.
El tercer galardonado, Adam G. Riess, nació en Washington en 1969 y también se graduó en Harvard en 1996. En la actualidad enseña astronomía y física en la Universidad Johns Hopkins y en el Space Telescope Science Institute de Baltimore (EE UU).

Los tres investigadores han estudiado varias decenas de supernovas o explosiones estelares y han descubierto que el universo se está expandiendo a un ritmo cada vez más acelerado, y que probablemente tendrá un final “helado”. En 1998 revolucionaron los cimientos de la cosmología cuando, en dos grupos, presentaron sus hallazgos.
Uno de los equipos lo dirigió Saul Perlmutter, que lo había puesto en marcha en 1988. En el otro, coordinado por Brian Schmidt y lanzado a finales de 1994, también jugó un papel fundamental Adam Riess. Los investigadores trazaron un mapa del universo mediante la localización de las supernovas más distantes.
Con esta información y gracias a los avances de los telescopios terrestres y espaciales, así como al desarrollo de ordenadores más potentes y nuevos sensores de imagen digital (CCD, también Premio Nobel de Física en 2009), se abrió la posibilidad para que en la década de los 90 se pudieran añadir más piezas al rompecabezas cosmológico

Los investigadores utilizaron un tipo especial de supernova denominada ‘supernova Tipo Ia’. Se trata de la explosión de una estrella vieja y compacta, tan pesada como el Sol pero tan pequeña como la Tierra, y que emite tanta luz como una galaxia completa.

En total los dos equipos encontraron más de 50 supernovas distantes cuya luz era más débil de lo esperado, lo que interpretaron como una señal de que la expansión del Universo se estaba acelerando. Al principio los posibles obstáculos fueron numerosos, pero los científicos encontraron consuelo en el hecho de que ambos grupos habían llegado a la misma y asombrosa conclusión.
Durante casi un siglo se pensó que el universo se venía expandiendo como consecuencia del Big Bang hace cerca de 14 mil millones de años, pero el descubrimiento de que esta expansión es acelerada se considera sorprendente. Además, si la expansión se continúa acelerando, el universo terminará en forma de hielo.

La comunidad científica piensa que la aceleración está impulsada por la energía oscura, aunque saber lo que es la energía oscura continúa siendo un enigma, quizá el más grande en la física actual. Lo que sí se sabe es que la energía oscura constituye cerca de las tres cuartas partes del universo.

"Una de las razones que tenemos para aceptar el universo tal y como es radica precisamente en el hecho de que nos plantea un enigma que no tiene solución".
Aldous Huxley


"End of transmission"

lunes, 3 de octubre de 2011

REFLEXIONES DE LA PARADOJA DE FERMI


A medida que vamos profundizando en nuestro incipiente conocimiento sobre el Universo, la posibilidad de vida extraterrestre inteligente y el hecho de que no hayamos detectado evidencias por doquier de la misma -la Paradoja de Fermi- se convierte en una de las cuestiones que están necesitando cada vez más de una explicación convincente. A lo largo de los años se han ido proponiendo diferentes argumentos más o menos sólidos, y quizás parte del interés de estos argumentos sea lo que nos toca a nosotros mismos por ser una civilización tecnológica. En otras palabras, si hay algún motivo por el que otras civilizaciones no se han expandido por la galaxia y/o han dejado pruebas visibles de su existencia, ese motivo nos será eventualmente aplicable en principio a nosotros.

Podemos enumerar los caminos que *no* toma, una civilizacion tecnologica, que son en muchos casos frutos de preconcepciones humanas.
1•… no muestra su presencia a la comunidad local, ni realiza esfuerzos para entablar contacto activo. Los resultados del proyecto SETI parecen señalar que ése es el caso. No sería por ejemplo muy costoso para una civilización avanzada de este tipo el sembrar la galaxia de balizas de comunicaciones autorreplicantes (Bracewell probes) que detectaran posibles civilizaciones emergentes, y emitieran señales dirigidas que no pudieran pasar desapercibidas.

2•… no coloniza la galaxia. No se trata únicamente de expandirse físicamente por otros sistemas, sino que tampoco se envían sondas de exploración autorreplicantes (Von Neumann probes) que podrían abarcar muy rápidamente la galaxia.

3•… no esteriliza la galaxia. Este es uno de los argumentos clásicos de la ciencia-ficción: la civilización extraterrestre malévola que elimina la competencia mediante la esterilización de cualquier sistema en el que se detecte que puede estar emergiendo una civilización tecnológica. El hecho de que estemos aquí parece descartar que se empleen sistemas de esterilización a gran escala usando por ejemplo sondas genocidas (berserker probes).

4•… no interactúa ni ayuda a desarrollarse a civilizaciones pre-singularidad. Ni siquiera un monolito de vez en cuando, como toda nuestra historia demuestra.

5•… no realiza ingeniería a escala cósmica. No hay ninguna evidencia observacional de obras de ingeniería estelar, esferas de Dyson, etc.


La problemática de las sondas autorreplicantes es bien conocida: todo sistema con replicación potencialmente imperfecta dejado a su suerte evoluciona de manera impredecible, por lo que es razonable que ninguna civilización tome el riesgo de hacerlo. Por otra parte, una vez que todo mecanismo de propagación es no-autorreplicable no se debe descartar a la ligera los puntos segundo a cuarto anteriores, pero la ausencia de otro tipo de evidencia observacional es un factor que no se puede obviar. El punto quinto puede también explicarse por la falta de necesidad de embarcarse en este momento en ese tipo de obras de ingeniería; la energía está ahora disponible de manera abundante en el Universo, pero las cosas no serán siempre así.

¿Qué es entonces lo que una civilización avanzada sí hace?
A grandes rasgos las explicaciones son razonablemente admisibles sobre el devenir de una civilización tecnológica (a la luz de no hay trazas de la existencia de ninguna) son la auto-destrucción antes de llegar al estadio de expansión espacial, y la migración digital (la transferencia de consciencias a simulaciones aisladas del resto del Universo físico).

Ninguna de las dos son especialmente atractivas, pero una vez descartadas lo que nos queda son explicaciones un tanto ad hoc, lo que por otra parte tampoco las hace descartables. Puede por ejemplo ser improbable que seamos la primera civilización que llegue a sobrevivir para expandirse por la galaxia, pero no es imposible salvo que se demuestre lo contrario.

La hipótesis de la convergencia fuerte, que viene a afirmar que al igual que en la evolución biológica, en la evolución de las civilizaciones existen restricciones que condicionan su desarrollo, y que existe una especie de atractor hacia el que convergen las civilizaciones avanzadas. Si el óptimo de “eficiencia” (como quiera que se esté definiendo en este caso) está en torno a la migración digital habría una explicación a la paradoja.

"Los hechos son cosas obstinadas; y cualesquiera que sean nuestros deseos, nuestras inclinaciones, o los dictados de nuestras pasiones, estos no pueden alterar el estado de los hechos y de la evidencia". John Adams

"End of transmission"

EL UNIVERSO EN UN SUPERCOMPUTADOR

La simulación de la supercomputadora Bolshoi, la más precisa y detallada simulación cosmológica hasta la fecha, da a los físicos y astrónomos una nueva y poderosa herramienta para la comprensión de los misterios cósmicos como la formación de galaxias, la materia oscura y energía oscura.
La simulación rastrea la evolución a gran escala de la estructura del universo, incluyendo la evolución y distribución de los halos de materia oscura en las galaxias que se unieron y crecieron. Los estudios iniciales muestran una buena concordancia entre las predicciones de la simulación y las observaciones de los astrónomos.

La materia oscura en una galaxia rodea a la materia visible en un halo que es más grande y más esférico de las estrellas y el gas que vemos. La densidad de la materia visible es mayor que la densidad de materia oscura cerca de los centros de la mayoría de las galaxias, por lo que la materia oscura no es muy importante allí. Pero se extiende mucho más allá de las estrellas y el gas, por lo que las partes exteriores de las galaxias son esencialmente toda de materia oscura.
En realidad, la materia oscura sería invisible, sus propiedades sólo pueden inferirse indirectamente observando el movimiento de las estrellas y el gas.

“En cierto sentido, es posible que los resultados iniciales son un poco aburridos, ya que, básicamente, muestran que la norma funciona de nuestro modelo cosmológico”, dijo Joel Primack, profesor distinguido de la física en la Universidad de California, Santa Cruz. “Lo emocionante es que ahora tenemos esta simulación de alta precisión que proporcionará la base para un montón de importantes nuevos estudios en los meses y años por venir”.
Primack y Anatoly Klypin, profesor de astronomía en la Universidad de Nuevo México, encabezan el equipo que ha producido la simulación Bolshoi. Klypin escribió el código de software para la simulación, que se ha ejecutado en el superordenador de las Pléyades en la NASA Ames Research Center.

“Estas grandes simulaciones cosmológicas son esenciales para la interpretación de los resultados de las observaciones astronómicas en curso y para la planificación de las nuevas encuestas grandes del universo, que se espera que ayude a determinar la naturaleza de la misteriosa energía oscura”, dijo Klypin. Primack, que dirige la Universidad de California High-Performance Astrocomputing Center (UC-HIPACC), quien a su vez dijo que la versión inicial de los datos de la simulación Bolshoi comenzó a principios de septiembre.

“Hemos lanzado una gran cantidad de datos para que otros astrofísicos pueden empezar a usarla”, dijo. “Hasta ahora es menos del uno por ciento de la producción real, ya que la producción total es tan grande, pero no habrá lanzamientos adicionales en el futuro.” El índice de referencia anterior para grandes simulaciones cosmológicas, conocida como la Carrera del Milenio, ha sido la base de unos 400 documentos desde el año 2005.
Sin embargo, los parámetros fundamentales utilizados como entrada para la ejecución de Milenio ahora se sabe que es inexacta. Producido por el Consorcio Virgo, con científicos en su mayoría europeos, la simulación de Milenio utiliza parámetros cosmológicos basados en la primera versión de los datos de la sonda de la NASA Wilkinson Microwave Anisotropy (WMAP).

WMAP proporcionó un mapa detallado de sutiles variaciones en la radiación del fondo cósmico de microondas, la radiación primordial dejada por el Big Bang. Sin embargo, los parámetros WMAP1 inicial han sido sustituidos por versiones posteriores:. WMAP5 (de cinco años los resultados publicados en 2008) y WMAP7 (de siete años los resultados publicados en 2010).
La simulación Bolshoi se basa en los parámetros WMAP5, que son consistentes con los posteriores resultados de WMAP7 . “Los parámetros cosmológicos de WMAP1 en que se basa la simulación del Milenio ahora se sabe que tiene error”, dijo Primack. “Además, los avances en la tecnología de supercomputación nos permiten hacer una simulación mucho mejor con una resolución más alta en casi un orden de magnitud. Así que espero que la simulación Bolshoi tendrá un gran impacto en el campo.”

La explicación estándar de cómo evolucionó el universo después de el Big Bang se conoce como el modelo Lambda de Materia Oscura Fría, y es la base teórica para la simulación Bolshoi. Según este modelo, la gravedad actuó inicialmente sobre las fluctuaciones de densidad ligera que se presentó en breve después del Big Bang para reunir los grupos primero de materia oscura. Estos crecieron en cúmulos más y más grandes a través de la fusión jerárquica de progenitores más pequeños.

Aunque la naturaleza de la materia oscura sigue siendo un misterio, representa alrededor del 82 por ciento de la materia en el universo. Como resultado, la evolución de la estructura del universo ha sido impulsado por las interacciones gravitatorias de materia oscura. La materia ordinaria que forma estrellas y planetas ha caído en los “pozos gravitacionales”, creado por acumulaciones de materia oscura, dando lugar a las galaxias en los centros de los halos de materia oscura.
Uno de los propósitos principales de la simulación Bolshoi es calcular y modelar la evolución de halos de materia oscura. Las características de los halos y subhalos en la simulación Bolshoi se presentan en un documento que ha sido aceptado para su publicación en el Astrophysical Journal y está disponible on line.
En un segundo documento, también se aceptan para su publicación en el Astrophysical Journal, y disponible en Internet, presenta la abundancia y propiedades de las galaxias predichas por la simulación Bolshoi de la materia oscura. Los autores son Klypin, Trujillo Gómez, Primack, y el investigador postdoctoral UCSC Aaron Romanowsky. Una comparación de las predicciones con las observaciones de galaxias Bolshoi desde el Sloan Digital Sky Survey mostró muy buen acuerdo, según Primack.

La simulación Bolshoi se centró en una sección representativa del universo, la computación en la evolución de un volumen cúbico que mide alrededor de mil millones de años-luz en un lado y después de las interacciones de 8,6 mil millones de partículas de materia oscura. Le tomó seis millones de horas de CPU para ejecutar el cómputo total de la supercomputadora Pléyades, recientemente clasificado como el superordenador más rápido en séptimo lugar en el mundo.

Una variante de la simulación Bolshoi, conocida como BigBolshoi o MultiDark, se ha ejecutado en el superordenador lo mismo con el mismo número de partículas, pero esta vez en un volumen 64 veces mayor. BigBolshoi se ejecutó para predecir las propiedades y la distribución de los cúmulos de galaxias y otras estructuras de gran tamaño en el universo, así como para ayudar con proyectos de energía oscura, como la Encuesta de oscilación Baryon espectroscópicas (BOSS).

Otra variante, llamada MiniBolshoi, actualmente se ejecuta en la supercomputadora Pléyades. MiniBolshoi se centra en una parte más pequeña del universo, y ofrece una resolución aún mayor que Bolshoi. La simulación Bolshoi y sus dos variantes se harán públicos a disposición de investigadores astrofísicos de todo el mundo en las fases a través de la base de datos MultiDark, organizada por el Instituto de Astrofísica de Potsdam en Alemania y apoyado por becas de España y Alemania. Primack, Klypin, y sus colaboradores siguen analizando los resultados de la simulación Bolshoi y presentarán documentos para su publicación.

Entre sus hallazgos, sus resultados demuestran que la simulación predice correctamente el número de galaxias más brillantes que la Vía Láctea, y que las galaxias satélite son tan brillantes como los satélites principales de la Vía Láctea, las Nubes de Magallanes, Grande y Pequeña. Los misterios continuan......

"Hay más misterio en el más diminuto insecto que en el poder de una supercomputadora".


"End of transmission"