_____________________________________________

lunes, 28 de diciembre de 2009

SONDAS VOYAGER Y STAR TREK





Hace 30 años se estrenaba: Star Trek the Motion,
unos años antes habian partido las sondas Voyager de la NASA para explorar los confines del sistema solar y mas alla. Muchos cientificos, entre ellos el Dr. Sagan pensaban que los datos que llevaban a bordo, podian ser capturados junto con la sonda y tener una idea de quienes las habian hecho, su tecnologia y cultura. Por eso cuando escribo que la ciencia ficcion es solo ciencia anticipada, podemos pensar que alguna civilizacion extraterrestre pueda capturar estas sondas y tambien devolverlas. Escribo una breve descripcion de la parte final de la mencionada pelicula para despues volver a seguir comentando el punto final y agregar nuevos descubrimientos de las mencionadas sondas, esta vez en nuestro tiempo.

"Kirk y su tripulación descubren que la sonda desapareció en un agujero negro y salió en el otro extremo, aterrizo de emergencia en un planeta habitado por máquinas vivientes. Después de la reparación de la sonda, la máquinas siguió con su programación - observar y transmitir las lecturas a la NASA. Spock deduce que estas máquinas que viven interpretan que aquellas lejanas órdenes son como "Aprende todo lo que se puede aprender y regresa esa información para el Creador".

Cuando el USS Enterprise transmite antiguos códigos del Voyager, el V'ger transmite toda su información. Entonces, inesperadamente, V'ger insiste en que el Creador tiene que venir en persona para terminar la secuencia. Cuando se dan cuenta de que V'ger quiere físicamente fusionarse con su creador, el teniente Decker se ofrece de voluntario. Decker e Ilia (transformada en sonda por Vger) se unen y se funden en una brillante, entidad no-corporal, que desaparece dando origen a una nueva vida. "

Fuera del relato de ciencia ficcion, es muy interesante el aporte de la pelicula a la simbiosis hombre-maquina que seguimos buscando en estos tiempos y lo bien que la secuencia filmica lo explica.

Ultimas noticias de la sonda Vogayer:

Las sondas Vogayer hacen un descubrimiento interestelar:

El sistema solar está atravesando una nube interestelar que la física dice que no debería existir. En la edición del 24 de diciembre de Nature, un equipo de científicos revela cómo la sonda Voyager de la NASA ha resuelto el misterio.

La Voyager vuela a través de las fronteras externas de la heliosfera en ruta hacia el espacio interestelar. "Utilizando los datos de la Voyager, hemos descubierto un fuerte campo magnético en las afueras del sistema solar", explica el autor principal Merav Opher, un investigador de heliofísica, invitado por la NASA, de la Universidad George Mason. "Este campo magnético sostiene la nube interestelar unida y soluciona el rompecabezas de muchos años de como esto puede existir en absoluto."

El descubrimiento tiene implicaciones para el futuro cuando el sistema solar finalmente se topará con otras nubes similares en nuestro brazo de la galaxia de la Vía Láctea. Los astrónomos llaman a la nube en la que estamos ahora la Nube Interestelar Local o "Pelusa Local" para abreviar. Mide 30 años luz de ancho y contiene una mezcla tenue de átomos de hidrógeno y helio a una temperatura de 6000 C. El misterio existencial de la Pelusa tiene que ver con su entorno. Hace unos 10 millones de años, un cúmulo de supernovas explotó cerca, creando una burbuja gigante de gas de millones de grados. La Pelusa está completamente rodeada por estos escapes de alta presión de supernova y debería ser aplastada o dispersada por ellos. "La temperatura observada y la densidad de la nube local no proporcionan la suficiente presión para resistir la acción de aplastamiento" del gas caliente a su alrededor ", dice Opher.

Entonces, ¿cómo sobrevive la Pelusa? Las Voyager han encontrado una respuesta. "Los datos de la Voyager muestran que la Pelusa es mucho más fuertemente magnetizada que lo que nadie había sospechado anteriormente: entre 4 y 5 microgauss", dice Opher. "Este campo magnético puede proporcionar la presión extra que se requiere para resistir a la destrucción".

Dos sondas Voyager de la NASA han estado compitiendo fuera del sistema solar por más de 30 años. Ahora están más allá de la órbita de Plutón y al borde de entrar en el espacio interestelar, pero no están allí todavía. "Las Voyager no están actualmente dentro de la Pelusa Local", dice Opher. "Pero ellas se acercan y esto se puede sentir como las nubes que se acercan". La Pelusa es mantenida a raya justo más allá del borde del sistema solar por el campo magnético del sol, que es inflado por el viento solar en una burbuja magnética de más de 10 mil millones kilómetros de ancho. Llamada la "heliosfera", esta burbuja actúa como un escudo que ayuda a proteger el sistema solar interior de los rayos cósmicos galácticos y de las nubes interestelares.

Las dos Voyager se encuentran en la capa más exterior de la heliosfera, o "heliopausa", donde el viento solar es frenado por la presión del gas interestelar. La Voyager 1 entró en la heliopausa en diciembre de 2004; la Voyager 2, le siguió casi 3 años después, en agosto de 2007. Estos cruces fueron la clave para el descubrimiento de Opher.
La Voyager 2 se ha unido a la Voyager 1 dentro de la heliopausa, una capa externa gruesa, donde el viento solar es frenado por la presión del gas interestelar.

El tamaño de la heliosfera está determinada por un equilibrio de fuerzas: el viento solar infla la burbuja desde el interior, mientras que la Pelusa Local la comprime desde el exterior. Los cruces de la Voyager en la heliopausa revelaron el tamaño aproximado de la heliosfera y, por tanto, la cantidad de presión que ejerce la Pelusa Local.

Una parte de esa presión es magnética y se corresponde con los aproximadamente 5 microgauss que Opher ha reportado en Nature. El hecho de que la Pelusa está fuertemente magnetizada significa que las otras nubes en el vecindario galáctico podrían estarlo también. Finalmente, el sistema solar se encontrará con alguna de ellas, y sus fuertes campos magnéticos podrían comprimir la heliosfera aún más de lo que se comprime actualmente. Una compresión adicional podría permitir a más rayos cósmicos alcanzar el interior del sistema solar, posiblemente afectando el clima terrestre y la capacidad de los astronautas de viajar con seguridad a través del espacio.

Por otra parte, los astronautas no tendrían que viajar tan lejos, porque el espacio interestelar estaría más cerca que nunca. Estos eventos se juegan a cabo en escalas de decenas a cientos de miles de años, que es el tiempo que tarda el sistema solar para pasar de una nube a la siguiente. "Podemos tener una época interesante por delante!" dice Opher

Los visionarios vibraban en otra frecuencia !!!!
"End of transmission"


miércoles, 23 de diciembre de 2009

2012 !! SOLO FICCION ?


La cinematografia de Hollywood en peliculas cine-catastrofe es muy redituable, pero eso que presentan como una ficcion, tiene atisbos de realidad o no ? En su ultima presentacion tenemos 2012 !, profecias Mayas mediante, veamos lo dicho en este articulo de lo que le puede ocurrir a nuestro planeta y saquemos luego conclusiones.
El Dr. Alexey Dmitriev, un geofísico miembro de la Academia Rusa de Ciencias, habla sobre la zona de peligro galáctico que está poniendo en riesgo al Sol, la Tierra y todo nuestro Sistema Solar.A medida que el Sol traza una órbita en torno al Centro Galáctico, se encuentra con diferentes áreas del Espacio, algunas más energéticas que otras. Según Dmitriev, la Tormenta Eléctrica Interestelar que atravesamos en este mismo momento ha hecho que se encendieran luces rojas de alarma.
«El aumento de la actividad solar es un resultado directo de los crecientes flujos de materia, energía e información que experimentamos a medida que avanzamos hacia la nube de energía interestelar. El Sol sufre nuevas exigencias y nosotros experimentamos el impacto de esas exigencias en nuestro propio planeta. El tiempo transcurrido hasta que las principales perspectivas de catástrofes globales se conviertan en una realidad no pasará de dos o tres docenas de vueltas de la Tierra alrededor del Sol. Esto no es ninguna exageración; de hecho, creemos que esta predicción es más bien "blanda"».
Es decir, no pasaría del 2020 ó 2030, según los cálculos más prudentes y hasta optimistas...Para visualizar lo que ocurre a nuestro Sistema Solar, debemos imaginar una gran esfera luminosa, conocida como la Heliósfera. La luz de esta esfera es más fuerte en el centro, donde se encuentra el Sol, y va atenuándose cuanto más se aleja uno. Los distintos planetas, lunas, asteroides, cometas y restos hacen lo de siempre, giran, trazan órbitas y andan zumbando dentro de esa enorme bola luminosa.
La Heliósfera, a su vez, se desplaza por el Espacio, posada en un brazo de nuestra Galaxia, y ésta también gira y vuela.Durante mucho tiempo nos hemos limitado a suponer que siempre sería una navegación tranquila y sin problemas. Dmitriev explica que ahora la Heliósfera se ha topado con un terreno difícil, específicamente con cintas y estrías magnetizadas que contienen Hidrógeno, Helio, Hidróxilo (un Átomo de Hidrógeno unido por un solo nexo a un Átomo de Oxígeno) y otros elementos, combinaciones y compuestos: desechos espaciales, tal vez resultado de la explosión de una estrella.
Como cualquier otro objeto que viaja a través de cualquier otro medio (un bote que avanza por el agua, por ejemplo), la Heliósfera ha creado una Onda de Choque delante de ella, a medida que empuja partículas de Espacio Interestelar. Esa Onda de Choque se ha vuelto más grande y gruesa desde el momento en que la Heliósfera entró en esa región más densa del Espacio, donde es necesario apartar más partículas del camino. Dmitriev explica que la Onda de Choque de la Heliósfera se ha multiplicado por 10: de 4 a 40 Unidades Astronómicas (una Unidad Astronómica [UA] es la distancia entre la Tierra y el Sol: unos 150 millones de Kms).
«El crecimiento del grosor de esta onda de choque ha causado la formación de un plasma colusivo en la capa parietal, que ha provocado un exceso de plasma en torno al Sistema Solar y, luego, su penetración en los campos interplanetarios [...]. Esta penetración constituye una donación de materia y energía que el espacio interplanetario hace a nuestro sistema solar».
En otras palabras, la Onda de Choque está envolviendo el borde anterior de la Heliósfera, de la misma manera en que las llamas envuelven la parte delantera y los lados de un Transbordador Espacial cuando éste entra en la atmósfera, salvo que los Transbordadores Espaciales poseen escudos diseñados para protegerlos y evitar que se achicharren.Según Dmitriev, la onda de choque está presionando nuestra Heliósfera, inyectando grandes cantidades de energía en los campos interplanetarios, que sacuden el Sol y hacen que se comporte de manera errática, alteran el Campo Magnético Terrestre y, muy probablemente, exacerban el Calentamiento Global que está experimentando nuestro Planeta.Dmitriev y sus colegas descubrieron la Onda de Choque cuando analizaban datos obtenidos por el Voyager sobre los límites más alejados de nuestro Sistema Solar.
La misión comprendía dos satélites y se lanzó en 1977. Durante más de una década los satélites Voyager I y II transmitieron información detallada sobre las lunas, los anillos y los ambientes magnéticos de los Planetas más lejanos. Luego, en 1988, pusieron rumbo a la Heliopausa, la línea divisoria entre el Sistema Solar y el Espacio Interestelar, a unas 106 UA del Sol.Usando los datos del Voyager como base, Dmitriev y sus colegas los compararon con datos e investigaciones más recientes y hallaron evidencias asombrosas y coherentes de que, desde las más diminutas y frías lunas que giran en torno a los planetas más lejanos hasta el centro del Sol, la Heliósfera exhibe un comportamiento más excitado y turbulento que hace 20 años, fecha de las primeras mediciones del Voyager.
Los científicos rusos han estudiado exhaustivamente la Nube de Energía Interestelar, en especial Vladimir B. Baranov. La obra de Baranov sobre la Hidrodinámica del Plasma Interplanetario y la desaceleración del Viento Solar producida por el medio interestelar se ha publicado ampliamente en ruso. Baranov ha desarrollado un modelo matemático de la Heliósfera basado en datos del Voyager.
En una conferencia celebrada en 1999 en Moscú, científicos planetarios de Rusia, Europa y Estados Unidos examinaron el modelo de Baranov, que implica una correspondencia del 96% entre los datos del Voyager, la información más reciente de la NASA y la ESA, y las evaluaciones básicas de energía y espacio realizadas por Dmitriev, quien cree que nuestra Heliósfera permanecerá dentro de la Onda de Choque durante los próximos 3.000 años.La Onda de Choque es más intensa en el borde anterior de la Heliósfera a medida que ésta avanza a través del Espacio Interestelar, así como la estela de un barco es más picada en la parte delantera, en el punto donde el casco corta el agua. Por lo tanto, la Onda de Choque impacta con más fuerza en las Atmósferas, climas y campos magnéticos de los Planetas Exteriores: Júpiter, Saturno, Urano y Neptuno.Tanto en Urano como en Neptuno se han producido desplazamientos de los Polos Magnéticos, de una manera muy similar a lo que está empezando a ocurrir en la Tierra, según creen los científicos.
Y las Atmósferas de ambos Planetas brillan con más luz y parecen estar calentándose, lo que ocurriría en el caso de nuevas aportaciones de energía.Las Auroras Boreales, esos espectaculares fenómenos luminosos producidos por repentinas inyecciones de radiación en una Atmósfera, han empezado a aparecer en Saturno, que a fines de Enero del 2006 regaló a los astrónomos una tormenta eléctrica del tamaño de Marte, con relámpagos mil veces más fuertes que los que suelen darse en la Tierra. Por primera vez se han visto géiseres similares a los de Yellowstone en Enceladus, la luna de Saturno.Júpiter está exhibiendo algunos de los efectos más pronunciados de la Onda de Choque. Su Campo Magnético ha duplicado su tamaño y en la actualidad se extiende hasta Saturno. Los Campos Magnéticos son, literalmente, Campos de Energía; para duplicar su tamaño, hace falta el doble de la cantidad de energía que los sostiene.Desde la Tierra, el Campo Magnético de Júpiter, si fuera visible, parecería más grande que el Sol a simple vista. Se han producido Auroras Boreales entre Júpiter e Ío, su luna, que también ha exhibido una actividad volcánica sin precedentes.
Pero el hallazgo más impresionante de todos tuvo lugar en Marzo del 2006, cuando se descubrió que Júpiter está generando una nueva Mancha Roja, en esencia, una tormenta electromagnética interminable, casi tan grande como la Tierra.Los astrónomos le vienen siguiendo la pista a esta nueva Mancha Roja, conocida oficialmente como Óvalo BA, desde el año 2000, cuando tres manchas más pequeñas chocaron y se fusionaron, formando una nueva conflagración. El Óvalo BA ha crecido hasta alcanzar alrededor de la mitad del tamaño de la Gran Mancha Roja original de Júpiter, la tormenta más poderosa del Sistema Solar, que ruge desde al menos 300 años.«Llevamos años monitorizando Júpiter para ver si el Óvalo BA se volverá rojo... y finalmente, parece que si», informa el astrónomo Glenn Orton, miembro del Laboratorio de Propulsión a Chorro (JPL) de Pasadena, California. Orton explica que la profundización del color rojo del Óvalo BA indica que está creciendo e intensificándose como tormenta. ¿De donde surge la energía que alimenta esta tormenta? El JPL no da ninguna respuesta a esta pregunta. Dmitriev y Baranov apuntan a la Onda de Choque, que lanza energía a la Atmósfera de Júpiter, lo que estimula tormentas eléctricas y la erupción de volcanes en sus satélites.Los efectos de la Onda de Choque también empiezan a detectarse en los Planetas Interiores.
La Atmósfera de Marte está volviéndose más densa y, por lo tanto, potencialmente más apta para la vida, puesto que una Atmósfera más densa ofrece mayor protección contra las radiaciones cósmicas y solares. La composición química y la calidad óptica de la Atmósfera de Venus está cambiando, volviéndose más luminosa, un buen indicio de un incremento de su contenido de energía.Aunque el Sol se encuentra en el centro de la Heliósfera y, por lo tanto, es el punto más lejano de los efectos de la Onda de Choque, es mucho más susceptible a las infusiones de energía que los Planetas. Así como el agua no puede absorber agua y la tierra no puede absorber tierra, la masa derretida de energía del Sol no puede disipar y disolver energía con la misma eficiencia que los cuerpos materiales fríos y duros de los Planetas. Por lo tanto, incluso las primeras aportaciones relativamente pequeñas de la Onda de Choque ya están produciendo impactos significativos en el Sol.Todo lo que perturba al Sol nos perturba a nosotros. Ese es el mensaje. Desde la perspectiva de Dmitriev, todos los Planetas, incluida la Tierra, se encuentran en un doble aprieto, puesto que reciben precipitaciones radiactivas tanto directa como indirectamente a través de los trastornos que éstas crean en Sol.
«Los efectos en la Tierra se encuentran en la aceleración del desplazamiento de los polos magnéticos, en la distribución vertical y horizontal del contenido de ozono, y en el aumento de la frecuencia y la magnitud de significativos acontecimientos climáticos catastróficos. Las respuestas adaptativas de la biósfera, y de la humanidad, a estas nuevas condiciones pueden generar una revisión total y global de la gama de especies y de la vida en la Tierra».
El concepto de una biósfera autorregulada recuerda la Hipótesis Gaia, de James Lovelock, que sostiene que la Tierra se comporta de manera muy similar a un organismo vivo. Si, por ejemplo, la Biósfera se calentara repentinamente como resultado de la entrada en una Nube de Energía Interestelar, encontraría la manera de enfriarse, de la misma manera inconsciente y automática en que nuestros cuerpos se enfrían a través del sudor.
El mecanismo adaptativo de la biósfera ante un incremento de la temperatura podría ir de un aumento de la cobertura protectora de nubes para dar sombra a la Tierra frente a un Sol demasiado poderoso, hasta la detonación de un supervolcán, como la erupción del Lago Toba hace 74.000 años, que llevó al planeta a una Edad de Hielo.Hay límites, desde luego, a la capacidad de la Biósfera para ajustarse con el objeto de mantener un cómodo statu quo. Y esa capacidad de compensar decrece a medida que se inhabilitan ciertos componentes clave de la biósfera, aquellos a los que Lovelock se refiere como «órganos vitales».
«Puesto que la Tierra es un organismo grande y muy organizado, cada una de sus unidades estructurales o territorios, tales como los sistemas montañosos, los ríos, las fallas tectónicas, los depósitos minerales, los yacimientos petrolíferos, etc., juegan un determinado papel funcional en su vida, y en sus conexiones con el mundo exterior. Por ejemplo, los depósitos de mineral de oro sostienen la estabilidad climática porque efectúan la conexión entre la actividad eléctrica de la atmósfera y la actividad eléctrica bajo la superficie de la Tierra».
El hecho de que la capacidad del mineral de oro y otros metales de conducir calor y electricidad termine siendo vital para la ecología global es una de esas observaciones que nos hacen llevarnos la mano a la frente, es decir, retrospectivamente obvias. ¿Qué otra manera sería más natural para eliminar el exceso de energía de la atmósfera y la superficie de la Tierra que conducirla a través de la corteza hacia el manto del planeta?El hecho más urgente es que se han extraído esos minerales de manera agresiva desde el comienzo de la revolución industrial, hace 150 años, que justamente también es la época en que tuvo comienzo la fase actual del Calentamiento Global. Dmitriev sostiene que, al quitar esos metales, hemos disminuido la capacidad de la Tierra de absorber el exceso de energía de la atmósfera. Ello, sin duda, podría ayudar a explicar parte del aumento de la severidad de las tormentas, puestos que están sobrecargadas por la energía proveniente de la Onda de Choque.
"End of transmission"

martes, 22 de diciembre de 2009

PARTICULAS SUB ATOMICAS Y LIBRE ALBEDRIO







" En los últimos años, los físicos nucleares han descubierto el extraño mundo de las partículas sub-atómicas, los fragmentos de átomos más pequeños que la imaginación puede imaginar, fragmentos de materiales que no obedecen las leyes de la gravedad. Antimateria compuesta de otros materiales; sombra de materia que puede penetrar a diez millas de protección al plomo.. Escondido en la profundidad, en el corazón de extraños nuevos elementos son los secretos más allá de la comprensión humana,las nuevas competencias, nuevas dimensiones, mundos dentro de mundos desconocidos "

The outer limits: Produccion y decadencia de extrañas particulas
En ese capitulo: Experimentando con particulas sub-atomicas, un equipo de investigadores inician una reacción que aparentemente controla a los propios investigadores. Como cada uno de los científicos se consume después de otro, la reacción crece hacia un clímax terrible, y los supervivientes temen que puedan ser impotente para detenerlo.
Claro, cuando vi por primera vez era muy chico para comprender que estaban diciendo, ahora trato de entender un poco mas, solo un poco, como esta compuesta la materia, doy unos datos para tratar de asimilar algo.


¿Por qué están encontrando los científicos tantas partículas subatómicas nuevas y cuál es su significado? La clave de la respuesta puede resumirse en una sola frase: “más energía”. Y los físicos estudian la estructura interna del núcleo atómico de una manera muy bruta. Lo bombardean con todas sus fuerzas con partículas subatómicas, destrozan el núcleo en fragmentos y estudian luego los trozos. Lo que ha cambiado en los últimos treinta años ha sido la energía con que esos “proyectiles” subatómicos irrumpen en el núcleo atómico. En los años treinta tenían energías de millones de electronvoltios; en los cuarenta, de cientos de millones; en los cincuenta, de miles de millones; en los sesenta, de docenas de miles de millones. Y a lo que se ve, en la presente década llegaremos a cientos de miles de millones de electronvoltios.


Cuanto mayor es la energía con que se irrumpe en el núcleo, mayor es el número de partículas que salen y mayor es también su inestabilidad. Y sería lógico pensar que a medida que crece la fuerza del impacto, menores deberían ser las partículas resultantes. (Al fin y al cabo, un golpe fuerte parte una roca en dos mitades, pero uno más fuerte aún la dividirá en una docena de trozos pequeños.) En el caso de los núcleos no es así. Las partículas que se obtienen suelen ser bastante pesadas. Y es que no hay que olvidar que la energía se puede convertir en masa. Las partículas subatómicas que aparecen en un proceso de ruptura de un núcleo no salen de allí como si hubiesen estado alojadas en él desde el principio. Se forman en el momento del impacto a partir de la energía de las partículas que intervienen en el choque.

Cuanto mayor es la energía de la partícula entrante, mayor es la masa que podrá tener la partícula formada y mayor será también, por lo general, su inestabilidad. En cierto modo cabría decir que las partículas subatómicas salen del núcleo destrozado de la misma manera que las chispas salen del acero al golpearlo con un pedernal. Las chispas no estaban desde el principio en el acero, sino que se forman a partir de la energía del golpe. Pero entonces, ¿tienen algún significado todas estas partículas subatómicas nuevas? ¿No serán meros productos fortuitos de la energía, como las chispas? Los físicos piensan que no, porque el orden que impera entre ellas es muy grande. Las partículas formadas tienen ciertas propiedades que obedecen determinadas reglas, bastante complicadas. Es decir, las diversas partículas pueden ser representadas mediante números, que a su vez son identificados por nombres como los de “spin isotópico”, “rareza”, “paridad”, etc., y la naturaleza de dichos números viene dictada por limitaciones muy rígidas. Detrás de estas limitaciones tiene que haber algo, indudablemente.


Si los humanos tienen libre albedrío, entonces también lo tienen las partículas subatómicas como los electrones, según dicen unos matemáticos estadounidenses.
"Si lo experimentadores tienen una cierta libertad, entonces las partículas tienen exactamente el mismo nivel de libertad”, escriben los matemáticos John Conway y Simon Kochen, de la Universidad de Princeton en Nueva Jersey, en un reciente artículo publicado en Notices of the AMS.
“Es más, es natural suponer que esta última libertad es la explicación final de la nuestra”.


La mecánica cuántica es una teoría que usa la probabilidad para predecir cómo se comportan las partículas. Pero en una base de caso a caso, el comportamiento de cada partícula es casi completamente impredecible.
No aceptando tal comportamiento impredecible, algunos científicos han propuesto la existencia de fuerzas hasta la fecha desconocidas o propiedades que llaman “variables ocultas”. Argumentan que la aleatoriedad de las fuerzas desconocidas es sólo una ilusión, y el comportamiento sería completamente predecible – o ‘determinista’ – sólo si pudiéramos conocer las variables ocultas.
Esto, según defiende el dúo, ya no es una interpretación válida de la mecánica cuántica. “Cualquier teoría debe contener ahora algún grado de indeterminación – o ‘libre albedrío’”, dijo Stephen Bartlett, físico cuántico de la Universidad de Sydney, que está de acuerdo con la idea general de los argumentos dados por el dúo de Princeton.
“Conway y Kochen demuestran que la aleatoriedad no depende de nada. Demuestran que la salida de estos eventos de aleatoriedad cuántica son real y completamente independientes de cualquier cosa que haya sucedido en el pasado”.

Los matemáticos estadounidenses basaron sus deducciones en tres teoremas inexpugnables, los cuales también van en consonancia: ‘espín’ – que mide una propiedad cuántica llamada espín de una partícula elemental; ‘gemelo’ – que un par de partículas estén correlacionadas; y ‘minuto’ – que es la restricción del experimentador de que lo que mide no puede comunicarse más rápido que la velocidad de la luz.
Si los experimentadores son libres para elegir entre experimentos – es decir, la elección de los experimentos no está predeterminada por eventos anteriores – entonces la partícula también debe decidir cómo actuar en el estímulo del momento.
Bartlett cree que el trabajo de Conway y Kochen es convincente. “Es un resultado bastante interesante. Su investigación cae en la amplia categoría de explorar cómo de extraño es el mundo cuántico”, dice.
Conway está actualmente presentando su teorema en una serie de charlas en la Universidad de Princeton.

Es indudable el aporte de la ciencia ficcion a el posterior estudio de lo que no podiamos entender.


"End of transmission"




lunes, 21 de diciembre de 2009

CIENCIA FICCION Y REALIDAD


La mente del hombre siempre ha deseado saber lo que está más allá del mundo en que vivimos. Exploradores se han aventurado en las profundidades y en las alturas De estos exploradores algunos son científicos, algunos son místicos. Cada uno es impulsado por un propósito diferente. La única cosa que tienen en común es su deseo de cruzar las zonas fronterizas que están más allá de los límites exteriores.


"The Borderland-The Outer Limits "


En este capitulo: La historia involucra a un equipo de científicos que utilizan un campo magnético muy fuerte para abrir una puerta a otra dimensión.
Su éxito, sin embargo, conduce a una tragedia extraña.

La historia demuestra que no es prudente descartar demasiado rápido las ideas que son inicialmente vistas como pura ciencia ficción. Peter Smith, un historiador de ciencias y autor de Doomsday Men, analiza los vínculos existentes entre la ciencia y ficcion y señala que lo que comenzó como mera ciencia ficción a menudo se ha convertido en la inspiración de grandes descubrimientos.
“Incluso la idea original de la ‘bomba atómica’ en realidad no tuvo su origen en los científicos, sino en HG Wells en su novela escrita en 1914 The World Set Free”, comentó.
“Un científico llamado Leo Szilard en 1932 le dio la inspiración para elaborar los materiales para iniciar la reacción nuclear en cadena necesaria para construir una bomba. Así que la bomba atómica tiene algunos de sus orígenes en la literatura, así como en la investigación “.

La gente del CERN habra visto mucha ciencia ficcion como yo lo hice de niño ?

Si el LHC encontrara el bosón de Higgs, abriría la puerta a la solución de otros misterios sobre los orígenes y la naturaleza de la materia. Otro punto de investigación tiene por objeto detectar la materia oscura, que se cree que representan cerca de un cuarto de la masa del universo, pero hecha de un tipo de partículas que hasta ahora ha resultado imposible de detectar.
Sin embargo, quizá la más extraña de todas las aspiraciones del CERN para el LHC es investigar otras dimensiones. Esta idea, conocida como la teoría de cuerdas, sugiere que existen muchas dimensiones que las conocidas que no podemos percibir.
En la actualidad, estas dimensiones están ocultas, si tuviera éxito la colisión en el LHC es posible que se produjeran anomalías gravitacionales.

La primera de esas teorías por verificar es si existe o no una partícula llamada bosón de Higgs, bautizada así en honor del físico británico que primero habló sobre su existencia, hace medio siglo. El bosón de Higgs es el encargado de dotar de masa a las demás partículas elementales, y si realmente no existe, la explicación de por qué las partículas tienen masa quedaría en un mero interrogante. Porque si la Academia dice que la palabra “materia” significa “lo que constituye la sustancia del universo físico”, esa definición no le cuadra nada a los físicos, que quieren saber por qué las masas se atraen y la razón de otros muchos fenómenos relacionados con ella cuyas causas ignoramos.

El bosón de Higgs no apareció en el LEP, cuyo límite máximo de energía rondaba los 100 GeV (giga-electronvoltios), pero se tiene la esperanza de que aparezca por fin en el LHC, cuando se alcancen colisiones del orden de 200 GeV. También se espera que aparezca la primera partícula supersimétrica, la más ligera de las que predice esa teoría, lo que validaría por fin una de las ideas más apoyadas por los físicos, aunque predice la existencia de muchas más partículas que las que conoce la cromodinámica cuántica. Si hay partículas supersimétricas, es casi seguro que habrá extradimensiones; es decir, además de las cuatro del espacio-tiempo, unas cuantas dimensiones más, que incluso podrían alcanzar un total de once. ¿Un Universo de once dimensiones? ¿Y eso qué es? ¿Dónde están? Según la teoría, se trata de dimensiones minúsculas, de menor tamaño que las partículas y que están como plegadas sobre sí mismas. Y, entre medias, quizá aparezcan nuevas cosas; como, por ejemplo, componentes aún no imaginados de la materia oscura, o partículas llamadas exóticas, que quizá planteen nuevos enigmas ni siquiera tenidos por posibles.

Por lo tanto, sigamos conectados, ya que en cualquier momento podemos hacer realidad lo que en su momento fue mera ciencia ficcion.

"End of transmission"

viernes, 11 de diciembre de 2009

GRAVEDAD Y DIMENSIONES OCULTAS


En el guion cinematografico de Star Trek: Generaciones, el Dr. Tolian Soran habla de un NEXUS temporal donde una persona puede recuperar nuevamente un tiempo anterior al cual esta viviendo.

Pero a pesar que es un guion para una pelicula de ciencia ficcion , tiene una paradoja que sirve para preguntarse: Y donde es que esta ese NEXUS, cual es el origen de la cinta o banda de energia que puede llevar a el. Lejos de querer filosofar acerca de lo que significo para el que escribe los muy buenos libretos de esas series y peliculas, si podemos tratar de esclarecer el tema de las dimensiones ocultas del espacio.

Una nueva teoría física, formulada por científicos norteamericanos, sugiere que la expansión del universo tiene su origen en dimensiones adicionales situadas muy cerca de las dimensiones conocidas, que son las que acogen a la energía oscura y el origen de la fuerza gravitacional repulsiva.
La teoría explica también por qué esas dimensiones no pueden ser percibidas directamente y establece que son estables y perpendiculares a las tres dimensiones de nuestro universo. La teoría deja una pista para ser verificada y las primeras pruebas indican que podría ser cierta.
La misteriosa energía oscura, que acelera la expansión del universo, podría estar escondida en las dimensiones ocultas del espacio, según una nueva teoría física elaborada por
Brian Greene y Janna Levin, de la Columbia University de New York.
La teoría ha sido explicada en un interesante artículo de la revista
Newscientist Space, y los autores han publicado un articulo más extenso en Arxiv, el repositorio online de acceso abierto y gratuito de artículos de física, a la espera de publicarlo en una revista especializada.
La energia oscura
es una forma hipotética de energía que inunda todo el espacio y que produce una presión negativa, convirtiéndose en una fuerza gravitacional repulsiva, supuesto origen de la expansión acelerada del universo.
La propuesta de ambos físicos señala que la energía oscura está oculta en las dimensiones imperceptibles del universo y explica por qué estas dimensiones ocultas no pueden ser percibidas directamente, una cuestión muy importante de la Teoría de Cuerdas.
La misma
es un modelo fundamental de la física que afirma que todos los bloques de materia son en realidad expresiones de un objeto básico unidimensional extendido llamado "cuerda". El universo surge cuando una cuerda vibra en relación a las otras.
La teoría de cuerdas está fundamentada en 11 dimensiones y establece que, debido a que las dimensiones adicionales se enroscaron sobre sí mismas a escalas microscópicas durante el nacimiento del Universo, no pueden ser percibidas directamente con nuestros sentidos. Además, considera la teoría de cuerdas, son dimensiones muy inestables.
La existencia de dimensiones adicionales en el universo fue detectada recientemente por otro grupo de científicos,
utilizando geometrías matemáticas simples, estos científicos han podido reconstruir un mapa de energía alternativo de los momentos primigenios del universo, en el que se aprecian indicios de al menos otras siete dimensiones. De esta forma, las dimensiones extra sobre las que ha teorizado la teoría de cuerdas habrían sido observadas gracias a un metafórico viaje al instante posterior al Big Bang.

La nueva teoría aporta asimismo una explicación a la expansión del universo. A mediados de los años 90, los astrónomos descubrieron que las otras galaxias se alejan de la nuestra acelerándose. Más adelante, los físicos han atribuido esa expansión a la así llamada energía del vacío o a la constante cosmológica.
La energia del vacio
es una energía de fondo existente en el espacio incluso en ausencia de todo tipo de materia y está relacionada con la aparente aceleración actual de la expansión del Universo. Algunos astrofísicos piensan que la energía del vacío podría ser responsable de la energía oscura del universo, asociada a la fuerza de gravedad repulsiva que contribuye a la expansión del Universo.
La constante cosmologica
ha sido otra de las hipótesis de la expansión del universo. Es un parámetro establecido por Einstein en sus ecuaciones de la relatividad general que, aunque quedó en entredicho cuando se descubrió que el universo estaba en expansión, ha vuelto a ser considerado al analizar la energía del vacío, la teoría cuántica de campos o la aceleración del universo.

La actual hipótesis de los científicos para explicar la expansión del universo se basa en las vibraciones cuánticas del vacío espacial. El espacio está lleno de campos gravitacionales y electromagnéticos que vibran como campos cuánticos. Esta energía de las vibraciones cuánticas sería la que produciría la fuerza de gravitación repulsiva que aleja a las galaxias.
Sin embargo, los cálculos realizados hasta la fecha sobre la densidad de esas vibraciones cuánticas del vacío espacial cuestionan las ecuaciones de la Toria Cuantica de campos
, por lo que explicación clásica de la expansión del universo no está consolidada.

Dimensiones ocultas, pero próximas…

Este dilema se resuelve con la nueva teoría, que considera que las vibraciones cuánticas del vacío espacial no están limitadas a un espacio único. Brian Greene y Janna Levin consideran al respecto que las vibraciones cuánticas del vacío espacial son vibraciones de campos de fuerza cuánticos y fluctuantes producidos por un conjunto de dimensiones perpendiculares a nuestras tres dimensiones conocidas.
Aunque la vibración cuántica esté atrapada en estas otras dimensiones adicionales, podría extender su influencia gravitacional en nuestro espacio, afirman estos científicos. La fuerza de gravitación obtenida de esas dimensiones adicionales es repulsiva, provocando la aceleración cósmica que provoca el alejamiento de las galaxias.
Greene y Levin calculan que las dimensiones adicionales deberían ser al menos del orden del 0,01 milímetros para provocar la aceleración observada por los astrónomos. La energía oscura alojada en esas dimensiones adicionales se ocultaría así sólo a algunas micras de nosotros (un micrón o micra es la unidad de longitud equivalente a la millonésima parte de un metro).
Hasta ahora, ambos autores sólo han esbozado su teoría, pero ya se puede utilizar para resolver otro problema, todavía más complicado. La Teoría de Cuerdas, que pretende la unificación de las cuatro fuerzas del universo, necesita siete dimensiones adicionales minúsculas, enroscadas sobre sí mismas, que son muy inestables.

La nueva teoría atribuye a estas dimensiones adicionales un comportamiento estable. El equilibrio preciso de los campos de fuerza cuánticos actuaría como un resorte tenso en las dimensiones suplementarias, manteniéndolas a un cierto tamaño estimado en 10 micras.
Como quiera que la nueva teoría sólo funciona en el marco de una cosmología de branas
, que describe a nuestro universo como una especie de membrana flotante en un espacio de dimensión superior, la mayoría de las partículas y de los campos que lo integran están unidos a esta brana, lo que explica por qué estas dimensiones adicionales no pueden ser percibidas, ni siquiera orientarnos en su dirección, explican Greene y Levin.
En la versión básica de las branas, la única fuerza susceptible de pasar a través de una brana, ese objeto extenso, dinámico que posee una energía en forma de tensión respecto a su volumen de universo, es la gravitación.

Pero las vibraciones asociadas al campo gravitacional no poseen las propiedades requeridas por la teoría de Greene y Levin, por lo que ambos autores han añadido un campo suplementario y fijado su intensidad para obtener un valor repulsivo coherente. Para alcanzar esta coherencia, señala Levin a Newscientist, “hemos fabricado un modelo reducido con campos supuestos”.
Otro arreglo a la teoría de ambos autores es que el campo que describen no puede proceder de neutrinos normales, ya que, como las demás partículas, están íntimamente ligados a nuestra brana. Por ello proponen la existencia de un neutrino estéril en las dimensiones adicionales, cuya presencia sería detectada en nuestro espacio en forma de energía oscura.

La teoría de Greene y Levin, explica Newscientist, implica que la gravitación se hace más intensa a menos distancia, y adquiere el tamaño de las dimensiones suplementarias o adicionales. De momento se trata de la única pista disponible para validar la teoría.
Ya hay una prueba experimental de esta reacción de la gravitación, de la que ha informado
Scientific American: en la universidad de Washington en Seattle, se ha medido la fuerza gravitacional a corta distancia y se han descartado dimensiones suplementarias adicionales mayores de 0,1 milímetros. Si existen esas dimensiones adicionales, deben medir menos de 44 micrómetros (0.044 milímetros), aseguran estos investigadores en un artículo publicado en Physical Review Letters.
Los científicos de esta universidad pretenden realizar nuevos experimentos para medir la gravitación en distancias todavía más cortas. Si en estos experimentos se pudiera comprobar un aumento de la gravitación por debajo de 0,01 milímetros, podríamos comprobar que la teoría de Greene y Levin es correcta y que la fuerza que provoca la expansión de nuestro universo viene de otra dimensión, concluye Newscientist Space.

Si consideramos el Tiempo como la cuarta dimension, entonces el Dr. Soran puede tener razon al decir " El tiempo es el fuego en donde ardermos"......... Ahora si es tiempo de filosofar con esta frase.

"End of transmission"





jueves, 19 de noviembre de 2009

NUESTROS ORIGENES COSMICOS


En las alturas del Llano de Chajnantor, en la Cordillera de los Andes, en Chile, el Observatorio Europeo Austral (ESO) está construyendo junto a sus socios internacionales el Atacama Large Millimeter/submillimeter Array, ALMA, un telescopio de vanguardia para estudiar la luz de algunos de los objetos más fríos en el Universo.
Esta luz tiene una longitud de onda de alrededor de un milímetro -entre luz infrarroja y ondas de radio- lo que la hace conocida como radiación milimétrica y submilimétrica.
En estas longitudes de onda, la luz brilla desde las vastas nubes frías en el espacio interestelar -a temperaturas sólo unas décimas de grado sobre el cero absoluto- y desde las galaxias más antiguas y distantes en el Universo. Los astrónomos pueden usar dicha luz para estudiar las condiciones químicas y físicas en las nubes moleculares: áreas densas de gas y polvo donde están naciendo las nuevas estrellas.
A menudo estas regiones del Universo son oscuras y ocultas a la luz visible, pero brillan intensamente en la parte milimétrica y submilimétrica del espectro.
La radiación milimétrica y submilimétrica abre una ventana hacia el enigmático Universo frío, pero las señales desde el espacio son fuertemente absorbidas por el vapor de agua existente en la atmósfera de la Tierra.
Por ello, los telescopios orientados a este tipo de astronomía deben ser construidos en sitios altos y secos, tal como el Llano de Chajnantor a 5.000 metros de altura, emplazamiento del observatorio astronómico más alto de la Tierra.Aquí es donde ESO, junto a sus socios internacionales, está construyendo el Atacama Large Millimeter/submillimeter Array, ALMA, el más grande proyecto astronómico existente.
El emplazamiento de ALMA, a unos 50 km al este de San Pedro de Atacama, en el norte de Chile, es uno de los lugares más secos de la Tierra. De esta forma, los astrónomos obtienen insuperables condiciones de observación, pero deben operar un observatorio de frontera bajo condiciones muy difíciles.
Chajnanator está unos 750 metros más alto que los observatorios en Mauna Kea, y 2.400 metros más alto que el VLT en el Cerro Paranal.ALMA será un telescopio único de diseño revolucionario, compuesto inicialmente por 66 antenas de alta precisión, operando a longitudes de onda de 0,3 a 9,6 mm.
Su conjunto principal tendrá cincuenta antenas de 12 metros de diámetro, actuando en conjunto como un solo telescopio: un interferómetro. Esto será complementado por un compacto conjunto adicional de cuatro antenas de 12 metros de diámetro y doce antenas de 7 metros de diámetro. Las antenas pueden ser desplazadas a través de la meseta desértica a distancias desde 150 metros a 16 kilómetros, lo que le proporcionará a ALMA un poderoso “zoom” variable. Será capaz de investigar el Universo a longitudes de onda milimétricas y submilimétricas con una sensibilidad y resolución sin precedentes, y con una visión hasta diez veces más aguda que la del Telescopio Espacial Hubble,
lo que permitirá complementar las imágenes obtenidas por el Interferómetro VLT.
ALMA es el telescopio más poderoso para observar el Universo frío: el gas molecular y el polvo, así como también los vestigios de la radiación del Big Bang.
ALMA estudiará los componentes básicos de las estrellas, los sistemas planetarios, galaxias y la vida misma. Proveerá a los científicos con imágenes detalladas de estrellas y planetas naciendo en nubes de gas cerca de nuestro Sistema Solar, y detectará galaxias lejanas que están formándose en los confines del Universo observable, las que vemos tal como eran aproximadamente diez mil millones de años atrás. De esta forma, ALMA permitirá a los astrónomos abordar algunas de las profundas interrogantes sobre nuestros orígenes cósmicos.
El telescopio ALMA hizo sus primeras medidas el Martes, utilizando sólo dos de las posibles 66 antenas que componen la matriz. El Atacama Large Millimeter / submilimétrico Array tomó mediciones de interferometría de señales de radio, o "flecos" de un cuasar lejano (3C454.3) en ondas sub-milimétricas.
Los astrónomos dijeron que los datos de las dos antenas de 12 metros con sensibilidad y resolución son sin precedentes, y las observaciones en una longitud de onda de menos de 1mm que mostró ALMA era ahora una verdadera "submilimétrica", así como el telescopio de ondas milimétricas.
Se calcula que para el año 2012 se terminaran de construir las 66 antenas que trabajaran en sintonia para sondear profundamente las galaxias y asi daran otra forma de ver el Universo.

"End of transmission"



lunes, 9 de noviembre de 2009

INTERNET INTERPLANETARIA






La NASA realizó un ensayo con una red de comunicaciones desde el espacio, que siguió el modelo de la web. Intercambiaron imágenes con una nave que se encuentra a más de 32 millones de la Tierra.El informe del Laboratorio de Propulsión a Chorro (JPL) de la NASA indicó que sus ingenieros usaron en octubre 2008 un software especial para transmitir docenas de imágenes.Los ingenieros de JPL recurrieron a la red Deep Space Network de la NASA, utilizando como enlace a la sonda Epoxi que se desplaza rumbo a un encuentro del cometa Hartley, el cual debe ocurrir en dos años.
"Este es el primer paso hacia la creación de una capacidad de comunicaciones del espacio totalmente nueva, una internet Interplanetaria", manifestó Adrian Hooke, director de tecnología y redes espaciales de la NASA, en Washington.
La transmisión se basa en el software llamado Disruption-Tolerant Networking (DTN), cuyo protocolo fue desarrollado hace diez años.El software envía información utilizando un método diferente a los protocolos que usa internet y esta web interplanetaria debe ser lo suficientemente robusta como para resolver demoras, alteraciones y desconexiones en el espacio, agregó la agencia en un comunicado.
Los problemas pueden plantearse cuando una nave espacial pasa detrás de un planeta y se interrumpe el contacto o cuando las comunicaciones se ven alteradas por las tormentas solares.Una demora en recibir o enviar datos desde Marte, por ejemplo, puede ser de entre 3,5 y 20 minutos a la velocidad de la luz.
Pero, al contrario del sistema de internet, no plantea la posibilidad de una desconexión.En su diseño, si no puede encontrar un destinatario, o lo que JPL califica como "un nódulo", la información no se descarta y la mantiene hasta encontrarlo.
"En esta red interplanetaria inicial hay 10 nódulos", asegura Scott Burleigh, ingeniero de JPL. Para explicar el sistema, JPL utiliza la analogía del básquet y señala que es como el jugador que pasa la pelota al compañero que se encuentra más cerca del aro. "En última instancia, la información será entregada al usuario", matiza.Según Leigh Torgerson, director del centro de operaciones experimentales con DTN, en las actuales comunicaciones es necesario programar manualmente cada enlace y generar comandos específicos sobre qué datos enviar, cuándo enviarlos y a dónde.
En los próximos años, la creación de una internet interplanetaria permitirá que se realicen muchos tipos de misiones espaciales. Las complejas en las que participen diferentes naves de descenso, en órbita o móviles tendrán un apoyo mucho más fácil mediante este sistema.La NASA realizó un ensayo con una red de comunicaciones desde el espacio, que siguió el modelo de la web. Intercambiaron imágenes con una nave que se encuentra a más de 32 millones de kilómetros de la Tierra.
El informe del Laboratorio de Propulsión a Chorro (JPL) de la NASA indicó que sus ingenieros usaron en octubre un software especial para transmitir docenas de imágenes.Los ingenieros de JPL recurrieron a la red Deep Space Network de la NASA, utilizando como enlace a la sonda Epoxi que se desplaza rumbo a un encuentro del cometa Hartley, el cual debe ocurrir en dos años.
"Este es el primer paso hacia la creación de una capacidad de comunicaciones del espacio totalmente nueva, una internet Interplanetaria", manifestó Adrian Hooke, director de tecnología y redes espaciales de la NASA, en Washington.La transmisión se basa en el software llamado Disruption-Tolerant Networking (DTN), cuyo protocolo fue desarrollado hace diez años.
El software envía información utilizando un método diferente a los protocolos que usa internet y esta web interplanetaria debe ser lo suficientemente robusta como para resolver demoras, alteraciones y desconexiones en el espacio, agregó la agencia en un comunicado.Los problemas pueden plantearse cuando una nave espacial pasa detrás de un planeta y se interrumpe el contacto o cuando las comunicaciones se ven alteradas por las tormentas solares.
Una demora en recibir o enviar datos desde Marte, por ejemplo, puede ser de entre 3,5 y 20 minutos a la velocidad de la luz. Pero, al contrario del sistema de internet, no plantea la posibilidad de una desconexión.En su diseño, si no puede encontrar un destinatario, o lo que JPL califica como "un nódulo", la información no se descarta y la mantiene hasta encontrarlo. "En esta red interplanetaria inicial hay 10 nódulos", asegura Scott Burleigh, ingeniero de JPL. Para explicar el sistema, JPL utiliza la analogía del básquet y señala que es como el jugador que pasa la pelota al compañero que se encuentra más cerca del aro. "En última instancia, la información será entregada al usuario", matiza.
Según Leigh Torgerson, director del centro de operaciones experimentales con DTN, en las actuales comunicaciones es necesario programar manualmente cada enlace y generar comandos específicos sobre qué datos enviar, cuándo enviarlos y a dónde.
En los próximos años, la creación de una internet interplanetaria permitirá que se realicen muchos tipos de misiones espaciales. Las complejas en las que participen diferentes naves de descenso, en órbita o móviles tendrán un apoyo mucho más fácil mediante este sistema.


"End of transmission"


miércoles, 4 de noviembre de 2009

ANTIMATERIA Y GRAVEDAD






FUENTE: CERN



Creemos que la gravedad funciona en la misma manera para toda la materia.



Pero, ¿Qué pasa con la antimateria?


AEGIS, un experimento del CERN, al que se le acaba de dar la señal de salida, está diseñado para averiguarlo. La gravedad es una fuerza relativamente débil, de forma que el experimento utilizará partículas sin carga para evitar que las fuerzas electromagnéticas ahoguen los efectos de las fuerzas gravitatorias.


En primer lugar fabricará pares inestables de electrones y positrones conocidos como positronios, después los excitará con lasers para evitar que se aniquilen demasiado deprisa. Las nubes de antiprotones desgarrarán estos pares, robando sus positrones para crear átomos de anti-hidrógeno.


Los pulsos de estos anti átomos disparados horizontalmente a través de dos dispositivos de ranuras crearán un fino patrón de impacto y la reflejarán en la pantalla del detector. Midiendo como la posición que este patrón se desplaza, la fuerza (y la dirección) de la fuerza gravitacional en la antimateria podrá ser medida.


¿Funciona la gravedad de la misma manera que toda la materia ordinaria, o por el contrario actúa de una forma distinta?


Se trata de una idea brillante, pero hay muchas cosas que podrían salir mal, dice el portavoz de AEGIS Michael Doser. "Nadie ha controlado nunca positronios de esta forma, nadie ha conseguido llevar positronios a un estado excitado mediante el lasers en un ambiente como éste y nadie ha efectuado un pulso de anti-hidrógeno como éste." Si los investigadores tienen éxito, valga la pena el esfuerzo. Si la gravedad afecta a la antimateria de forma distinta, esto nos va a decir no únicamente algo sobre la antimateria sino sobre todo las teorías fundamentales que dominan la física moderna.


La teoría general de la relatividad de Einstein, la teoría gravitatoria con mayor aceptación actualmente, nos dice que la fuerza debería funcionar de forma idéntica en cualquier tipo de materia. De igual manera el modelo estándar predice que la materia y la antimateria son idénticas a todos los efectos y propósitos. "Si encontráramos que alguna de estas cosas no se ajusta las observaciones", dice "entonces sería algo extremadamente importante."


"End of transmission"


jueves, 29 de octubre de 2009

LOS CONFINES DEL SISTEMA SOLAR

Hace muchos años que los investigadores saben que el sistema solar está rodeado por una gran burbuja de magnetismo. La llaman "heliósfera", surge desde el Sol y se extiende mucho más allá de la órbita de Plutón, proporcionando de este modo una línea primaria de defensa contra los rayos cósmicos y las nubes interestelares que traten de penetrar nuestro espacio local. A pesar de que la heliósfera es gigantesca y, literalmente, llena el cielo, no emite luz alguna y tampoco nadie la ha visto.
Hasta ahora......
La nave espacial IBEX (sigla en idioma inglés de: Interstellar Boundary Explorer o Explorador de la Frontera Interestelar) ha trazado los primeros mapas integrales (que cubren la esfera celeste por completo) de la heliósfera y los resultados han sorprendido a los investigadores. Los mapas están divididos en dos por un cordón ondulante y brillante de origen desconocido: En la imagen vemos un mapa integral del cielo, hecho por la sonda IBEX, el cual registra la emisión de átomos energéticos neutrales y revela un filamento brillante de origen desconocido. V1 y V2 indican las posiciones de las naves espaciales Voyager."Este nuevo resultado es impactante", dice Dave McComas, quien es el investigador principal del proyecto IBEX, en el Instituto de Investigaciones del Suroeste (Southwest Research Institute, en idioma inglés). "No teníamos idea de que este cordón existiera —o de qué lo pudo haber creado. Nuestras ideas previas sobre la heliósfera externa van a tener que ser revisadas".


Aunque el cordón se ve brillante en el mapa trazado por IBEX, no brilla de manera convencional. El cordón no es una fuente de luz, sino una fuente de partículas —atómos neutrales energéticos (en idioma inglés: energetic neutral atoms o ENAs). Los sensores de la sonda IBEX pueden detectar estas partículas, que se producen en la heliósfera externa, donde el viento solar comienza a disminuir la velocidad y se mezcla con la materia interestelar que proviene de la zona exterior del sistema solar.
"Este cordón circula entre las dos sondas Voyager, y no había sido observado por ninguna de ellas", hace notar Eric Christian, científico adjunto de la misión IBEX, en el Centro Goddard para Vuelos Espaciales, de la NASA. "Es como tener dos estaciones climatológicas y que una tormenta pase entre ellas sin que se la note".
A diferencia de las naves Voyager, que han viajado durante décadas hacia la frontera del sistema solar para tomar muestras in situ, la nave IBEX permaneció cerca de casa. Se encuentra en órbita alrededor de la Tierra, girando a su alrededor y recolectando ENAs de todas direcciones. Esto da a la nave IBEX un punto de vista global que es único y necesario para descubrir algo tan vasto como el cordón.
El cordón también tiene estructura delgada —pequeños filamentos de emisión de ENAs de apenas unos cuantos grados de ancho. La estructura fina es un misterio, al igual que el cordón, dicen los investigadores.
Una pista importante: el cordón corre en dirección perpendicular al campo magnético galáctico justo fuera de la heliósfera.
"Eso no puede ser una coincidencia", dice McComas. Pero, ¿qué significa? Nadie lo sabe. "Nos falta conocer un aspecto fundamental de la interacción entre la heliósfera y el resto de la galaxia. Los teóricos se encuentran trabajando para resolver este problema".
Es importante entender la física de la heliósfera externa por el papel que juega al hacer las veces de escudo del sistema solar y protegerlo contra los rayos cósmicos. El tamaño de la heliósfera y su forma son factores clave en la determinación de la potencia que posee para hacer las veces de escudo y, por lo tanto, en la determinación de la cantidad de rayos cósmicos que llegan hasta la Tierra. Por primera vez, la nave IBEX está revelando cómo podría responder la heliósfera al chocar contra las nubes interestelares y los campos magnéticos galácticos.
"IBEX se encuentra ahora haciendo un segundo mapa integral, y estamos ansiosos por ver si el cordón está cambiando", dice McComas. "Observar cómo evoluciona el cordón —si es que está evolucionando— podría darnos más pistas".


"End of transmission"



TELESCOPIO ESPACIAL FERMI




Durante su primer año de operaciones, el Telescopio Espacial de Rayos Gamma Fermi de la NASA ve el cielo extremo con resolución y sensibilidad sin precedentes. Se capturaron más de 1.000 fuentes discretas de rayos gamma - la forma más alta energía de la luz. Proporciona evidencia experimental sobre la estructura misma del espacio y del tiempo, unificado como espacio-tiempo en las teorías de Einstein. "Los físicos desean sustituir la visión de Einstein de la gravedad - como se expresa en sus teorías de la relatividad - con algo que se ocupa de todas las fuerzas fundamentales", dijo Peter Michelson, investigador principal de Fermi Telescope, o LAT, Universidad de Stanford, en Palo Alto , California "Hay muchas ideas, pero pocas formas de ponerlas a prueba." Algunos modelos predicen que el aspecto de espuma de espacio-tiempo hará que los rayos gamma de mayor energía se muevan un poco más despacio que los fotones de baja energía. Este modelo violaría lo dicho por Einstein de que toda la radiación electromagnética - ondas de radio, infrarrojos, luz visible, rayos X y rayos gamma - viaja a través del vacío a la misma velocidad. El 10 de mayo de 2009, Fermi y otros satélites detectaron un breve estallido de rayos gamma, denominado GRB 090510. Los astrónomos creen que este tipo de explosión ocurre cuando las estrellas de neutrones colisionan. Los estudios basados en tierra muestran que el evento tuvo lugar en una galaxia 7,3 mil millones de años de distancia. De los fotones de rayos gamma que Fermi detecto desde el estallido de 2,1 segundos, hubo dos energías diferentes de fotones. Sin embargo, después de recorrer unos siete millones de años, la pareja llegó a sólo nueve décimas de segundo de diferencia. "Esta medida elimina cualquier aproximación a una nueva teoría de la gravedad que predice que a una energía muy fuerte cambia la velocidad de la luz", dijo Michelson. Estos dos fotones viajaron a la misma velocidad. Se sigue la regla de Einstein, el Instrumento secundario de Fermi, ha observado los rayos gamma de baja energía de más de 250 explosiones. El LAT observo 12 de estos estallidos de energía más altos, revelando tres récords de explosiones de ajuste. GRB 090510 muestra los movimientos más rápido observados, con materia expulsada en movimiento a un 99,99995 por ciento de la velocidad de la luz. Los rayos gamma de alta energía pero visto desde una ráfaga - 33.4 mil millones de electrón-voltios o cerca de 13 mil millones de veces la energía de la luz visible - vinieron en Septiembre de GRB 090902B. El año pasado, GRB 080916C produzco la energía total, equivalente a 9.000 supernovas típicas. Escaneando todo el cielo cada tres horas, el LAT está dando a los científicos de Fermi un aspecto cada vez más detallado del universo extremo. "Hemos descubierto más de mil fuentes de rayos gamma persistente - cinco veces el número conocido previamente", dijo el científico del proyecto Julie McEnery en el Goddard Space Flight Center en Greenbelt, Maryland "Y hemos asociado casi la mitad de ellos con objetos conocidos en otras longitudes de onda. Galaxias distantes con agujeros negros en rápido movimiento emiten chorros de materia hacia nosotros - es, con mucho la fuente más frecuente, que ahora suman más de 500. En nuestra propia galaxia, las fuentes de rayos gamma son 46 púlsares y dos sistemas binarios, donde una estrella de neutrones rápida orbita alrededor de una estrella jóven y caliente. "El equipo de Fermi hizo un gran trabajo en la puesta de la nave y al comienzo de las observaciones científicas", dijo Jon Morse, director de la División de Astrofísica en la sede de la NASA en Washington. "Y ahora Fermi esta dando cumplimiento a su promesa científica, de alto impacto de los descubrimientos sobre el universo extremo y el tejido del espacio-tiempo". ‪

"End of transmission"





lunes, 19 de octubre de 2009

EL LEGADO DE LA SONDA GALILEO




La nave espacial Galileo de la NASA comenzó lo que se convertiría en una odisea de 14 años de exploración hace 20 años este domingo, 18 de octubre. Galileo fue el primer emisario de la humanidad a la órbita de un planeta en el sistema solar - Júpiter.
Galileo fue lanzado al espacio a bordo del transbordador espacial Atlantis el 18 de octubre de 1989, desde el Centro Espacial Kennedy, Florida. La tripulación del Atlantis desplegó Galileo fuera de la bahía de carga del transbordador sólo unas horas después del lanzamiento. Luego, un poco más de siete horas después de salir de la Tierra, Galileo fue impulsado en su trayectoria de vuelo interplanetario por el motor de dos etapas, de combustible sólido llamado una etapa superior inercial.
Aunque los primeros planes para Galileo era utilizar una etapa superior más poderosa para que pueda volar directamente a Júpiter, el vuelo finallo hizo por otros planetas, primero para que pueda obtener energía de la gravedad de cada uno. Galileo voló más allá de Venus el 10 de febrero de 1990, y luego a la Tierra en dos ocasiones - una vez el 8 de diciembre de 1990, y de nuevo el 8 de diciembre de 1992.
Incluso antes de su llegada a Júpiter en 1995, Galileo hizo descubrimientos revolucionarios. El 29 de octubre de 1991, la nave espacial voló al asteroide Gaspra enviando imágenes de uno de estos vagabundos celestes.
Luego, el 28 de agosto de 1993, Galileo se encontró con el 15,2 kilómetros de ancho (9,4 millas) Asteroide Ida, donde tomó las primeras imágenes de este asteroide y descubrió que tenia una luna de asteroide, de 1,6 kilómetros de ancho (1-milla ) Dactyl.



Durante la última parte de su crucero interplanetario, Galileo fue utilizado para observar las colisiones de los fragmentos del cometa Shoemaker-Levy con Júpiter en julio de 1994.
Galileo llegó a Júpiter el 7 de diciembre de 1995, al entrar en órbita coloco una sonda en la atmósfera del planeta gigante.

La velocidad de la sonda al entrar en la atmósfera de Júpiter fue de 47,6 kilometros por segundo (106,500 millas por hora).
Después de la resistencia de la atmósfera y un paracaídas desplegado redujo su tasa de descenso, la sonda Galileo transmitia los primeros estudios de las nubes de Júpiter y los vientos, y fomento la comprensión de los científicos de cómo es gigante gaseoso.

La sonda también midio la el diseño de su composición y evaluo el grado de evolución de Júpiter, en comparación con el sol.
Si bien el descenso de la sonda fue un momento culminante en la misión de Galileo, no era el único. Galileo investigo ampliamente la diversidad geológica de las cuatro mayores lunas de Júpiter: Ganímedes, Calisto, Io y Europa. Se encontró que la actividad volcánica de Io es de 100 veces mayor que la encontrada en la Tierra.
Galileo descubrió pruebas contundentes de que Europa, la luna de Júpiter tiene un océano de agua salada fundido bajo una capa de hielo sobre su superficie. Los científicos estiman que el océano podría ser de hasta 100 kilómetros (62 millas) de profundidad por debajo de su superficie congelada y contiene aproximadamente el doble de agua que todos los océanos de la Tierra.
Los datos mostraron que las lunas Ganímedes y Callisto también pueden tener una capa de agua salada líquida. El mayor descubrimiento que rodea a Ganímedes fue la presencia de un campo magnético. No hay otra luna que se conozca que tenga uno.
Cuando Galileo estudio con sus instrumentos el mundo del gigantes gaseoso, la nave hizo las primeras observaciones de las nubes de amoníaco en la atmósfera del planeta.

Asimismo, observó numerosas tormentas en Júpiter muchas veces más grandes que las de la Tierra, con rayos hasta 1.000 veces más potentes.
Fue la primera nave espacial que habita en la magnetosfera de un planeta gigante con tiempo suficiente para identificar su estructura y para investigar la dinámica del campo magnético.
Galileo determinó que el sistema de anillos de Júpiter está formado por polvo que levantaban los meteoroides interplanetarios en las cuatro pequeñas lunas interiores.

Datos de Galileo demostraron que el anillo exterior de Júpiter es en realidad dos anillos, uno integrado en el otro.
Después de haber recorrido unos 4,6 millones de kilómetros (alrededor de 2,8 millones de millas), la nave espacial resistio más de cuatro veces la dosis acumulada de radiación nociva de Júpiter que fue diseñada para resistir - y aún los principales sistemas de funcionamiento. Pero cuando todavía estaba disfrutando de una salud relativamente buena, el propulsor de la nave era bajo.
Sin carburante, Galileo no sería capaz de orientar su antena hacia la Tierra o ajustar su trayectoria, por lo que el control de la nave ya no sería posible. Por eso los directores de la misión de la NASA y el JPL decidieron poner su explorador Joviano en curso de colisión con Júpiter para eliminar cualquier posibilidad de un impacto no deseado entre la nave y Europa.
La posibilidad de que exista vida en Europa es tan apremiante y ha planteado tantas preguntas sin respuesta que está incitando planes para que una futura nave espacial vuelva a la luna helada.
La odisea de la nave espacial Galileo llegó a su fin el Domingo, 21 de septiembre 2003, cuando la nave pasó a la sombra de Júpiter, y luego se desintegró en la densa atmósfera del planeta a las 11:57 am hora del Pacífico. Su velocidad de entrada fue de 48,2 kilómetros por segundo (cerca de 108.000 millas por hora), es el equivalente de viajar de Los Angeles a Nueva York en 82 segundos.
El JPL Deep Space Network de Goldstone, California, recibió la última señal a las 12:43:14 PDT, 46 minutos después de que se estrello. El retraso se debe al tiempo que tarda la señal en viajar a la Tierra. Cientos de ex miembros del proyecto Galileo y sus familias estuvieron presentes en el JPL para una celebración de la nave espacial y decirle adiós.
Johnson científico del proyecto Galileo, en Torrence , dijo en su momento, "No hemos perdido una nave espacial, hemos ganado un peldaño en el futuro de la exploración espacial".



"End of transmission"


miércoles, 14 de octubre de 2009

ALFA CENTAURI: CANDIDATA A TENER E.T. ?


Alpha Centauri es una estrella especial - no sólo porque es el sistema estelar más cercano al sol, sino también porque es uno de los relativamente pocos lugares en la Vía Láctea que pueden ofrecer las condiciones de vida extraterrestre. Si la humanidad busca vida en otros lugares, Alfa Centauri es un excelente candidato.
Visible desde latitudes de unos 25 ° la estrella que nosotros llamamos Alpha Centauri se encuentra 4,35 años-luz del sol. Pero es en realidad un sistema estelar triple. Los dos componentes más brillantes Alpha Centauri A y B forman una binaria. Su órbita en unos a otros en 80 años con una separación media de 23 unidades astronómicas (1 unidad astronómica = 1 UA = distancia entre el Sol y la Tierra). El tercer miembro del sistema Alpha Centauri C se encuentra 13.000 UA de A y B, o 400 veces la distancia entre el Sol y Neptuno. No se sabe si Alfa Centauri C pertenece a A y B, o si ha abandonado el sistema en algunos millones de años. Alfa Centauri C se encuentra mensurable más cerca de nosotros que las otras dos: Sólo a 4,22 años luz de distancia, y es la estrella más cercana. Debido a esta proximidad, Alfa Centauro C es también llamada Proxima (Centauro).
Alpha Centauri A es una estrella amarilla con un tipo espectral G2, exactamente el mismo que el del Sol. Por lo tanto su temperatura y el color también coinciden con los del sol.
Alpha Centauri B es una estrella anaranjada de tipo espectral de K1. Considerando que Alpha Centauri A y B son estrellas como el Sol, Próxima es una enana roja oscura con un tipo espectral M5 - mucho más débil, más frío y más pequeña que el sol. Proxima es tan tenue que los astrónomos no la descubrieron hasta 1915.
Alpha Centauri es un lugar especial, porque puede ofrecer condiciones de vida similares a nuestro sistema solar. Una estrella tiene que pasar cinco pruebas antes de que se pueda llamar un lugar prometedor para la vida terrestre como lo conocemos. La mayoría de las estrellas en la galaxia son un fracaso.
En el caso de Alpha Centauri, sin embargo, vemos que Alfa Centauri A pasa los cinco ensayos, Alpha Centauri B pasa bien, todos menos uno, y sólo Proxima Centauri reprueba.
El primer criterio es asegurar la madurez de una estrella y la estabilidad, lo que significa que tiene que estar en la secuencia principal. Las principales estrellas de la secuencia fusionan hidrógeno en helio en sus núcleos, y generan luz y calor. Como el hidrógeno es tan abundante en las estrellas, la mayoría de ellas se quedan en la secuencia principal durante mucho tiempo, dando oportunidad de evolucionar. El Sol y las tres componentes de Alpha Centauri pasan esta prueba.
La segunda prueba es mucho más difícil, sin embargo, la estrella tiene que tener el tipo espectral correcto, ya que determina cuanta energía emite una estrella. Las estrellas más calientes - aquellos con tipos espectrales O, B, A, F principales- no son buenas porque se queman rápidamente y mueren rápidamente. Las estrellas frías - aquellos con tipos espectrales M y K finales -no puede producir suficiente energía para mantener la vida, por ejemplo, no pueden permitir la existencia de agua líquida en sus planetas. Como prueba de nuestra existencia, G-estrellas de tipo amarillo como el sol pueden dar lugar a la vida. Afortunadamente, Alpha Centauri A pasa esta prueba , ya que es de la misma clase que nuestro sol. Alfa Centauri B es una estrella K1, por lo que es más caliente y más brillante que la mayoría de las estrellas K, por lo que puede pasar esta prueba, o puede que no. Y la enana roja Proxima Centauri parece ser un caso perdido.
Para la tercera prueba, el sistema debe demostrar condiciones estables. El brillo de la estrella no debe variar tanto ya que no dejaria desarrollar cualquier tipo de vida alrededor de ella. Pero debido a Alpha Centauri A y B forman un par binario hay una cuestión más de fondo. ¿Cuánto de luz reciben los planetas de una estrella que varía en la otra estrella que gira alrededor de ella? Durante sus 80-años en órbita, la separación entre A y B cambia de 11 UA y 35 UA.
Afortunadamente, la variación es demasiado pequeña a la materia, y Alpha Centauri A y B pasan esta prueba. Sin embargo, Proxima no supera esta prueba. Al igual que muchas enanas rojas es una estrella fulgurante, con tendencia a los estallidos que hacen que su luz duplique o triplique en tan sólo unos minutos.
El Sol es alrededor de 4,6 mil millones de años, por lo que en la vida de la Tierra tuvo suficiente tiempo para desarrollarse. Una estrella debe tener la edad suficiente para dar a la vida la oportunidad de evolucionar.
Sorprendentemente, Alpha Centauri A y B son incluso más antiguos que el Sol, ya que tienen una edad de 5 a 6 mil millones de años, por lo tanto, pasan esta prueba perfectamente Proxima, sin embargo, puede ser sólo mil millones de años de edad, entonces esto falla, también.
Y la prueba quinta y última: ¿Las estrellas tienen bastantes elementos pesados - tales como el carbono, nitrógeno, oxígeno y hierro - que son necesarios para la vida biológica?
Como la mayoría de las estrellas, el Sol es principalmente hidrógeno y helio, pero un 2 por ciento del peso del Sol es de metales. (Los astrónomos llaman a todos los elementos más pesados que el helio "metales"). A pesar de un 2 por ciento puede no parecer mucho, es suficiente para construir planetas rocosos y dar lugar a nosotros. Y otra vez, por fortuna, Alpha Centauri A y B pasan esta prueba. Son estrellas ricas en metales.
¿Encontramos en Alpha Centauri planetas rocosos como la Tierra, lleno de agua líquida? Desafortunadamente, no sabemos todavía si Alpha Centauri incluso tiene planetas o no.
Lo que sabemos es que en un sistema binario los planetas no deben estar demasiado lejos de una estrella en particular, o sus órbitas se vuelven inestables. Si la distancia fuera superior a una quinta parte de la aproximación más cercana de las dos estrellas, entonces el segundo miembro de la estrella binaria fatalmente perturba la órbita del planeta.
Para el binario de Alfa Centauri A y B, su aproximación más cercana está a 11 UA, por lo que el límite para las órbitas planetarias se encuentra en alrededor de 2 unidades astronómicas.
En comparación con nuestro sistema, vemos que tanto Alfa Centauro A y B pueden llevar cuatro planetas interiores, como Mercurio (0.4 UA), Venus (0.7 UA), la Tierra (1 UA) y Marte (1.5 UA). Por lo tanto, tanto Alpha Centauri A y B pueden tener uno o dos planetas en la zona de vida donde el agua líquida es posible.

Se puede concluir que Alpha Centauri es un sistema de estrellas prometedoras en relación con los planetas terrestres y la posibilidad de vida . Es interesante observar lo que en su momento el administrador de la NASA Daniel Goldin, declaró en 1992: "Imagínese si el análisis espectroscópico revela un planeta azul con una atmósfera de oxígeno a tan sólo 4 años luz de distancia orbitando Alpha Centauri. El pedido de construir un motor warp se iniciria de inmediato!" ¿Cuándo sabremos si hay realmente planetas en Alfa Centauri? En realidad, ahora el telescopio espacial Kepler trabaja en la comprobación de su existencia.
El jefe del programa de investigación de la NASA Mike Kaplan declaró que "... descubriremos vida extraterrestre en los próximos 25 años". Así, pronto podría ocurrir que somos capaces de echar un vistazo a nuestros vecinos cósmicos.
"End of transmission"

viernes, 9 de octubre de 2009

SUSTENTABILIDAD DE VIDA EN EUROPA ?

En la pelicula " 2010: El año en que hicimos contacto" narrada bajo influencia del libro de Arthur C. Clarke 2010: Odisea dos, se veia como los humanos hacen contacto con alienigenas que tratan de dar vida a la luna de Jupiter: EUROPA colocando el mismo monolito que pusieron en la Tierra millones de años atras. La imaginacion de Arthur C. Clarke y todos sus conocimientos cientificos parecen adelantados a su epoca, ya que como un presagio, ahora se establece que Europa tiene sustentabilidad para poder albergar vida.

La luna contiene aproximadamente el doble de agua líquida de la Tierra de todos los océanos juntos. Una nueva investigación de Richard Greenberg, de la Universidad de Arizona sugiere que puede haber gran cantidad de oxígeno disponible en ese océano para sustentar la vida, cien veces más oxígeno de lo estimado previamente. Las posibilidades de que la vida ha sido incierta, ya que el océano de Europa se encuentra debajo de varios kilómetros de hielo, que lo separa de la producción de oxígeno en la superficie de las partículas cargadas energéticamente (similar a los rayos cósmicos).
Sin oxígeno, la vida concebible a las que existen en las aguas termales en el fondo del océano usando exóticos químicos en el metabolismo, sobre la base de azufre o de la producción de metano. Sin embargo, no está claro si el fondo del océano realmente se crearían las condiciones para la vida tal como la conocemos hoy en dia.
Por lo tanto, una cuestión clave es si llega suficiente oxígeno del océano para apoyar la base de del proceso metabólico que es más familiar para nosotros.Una respuesta viene de la consideración en la edad de la superficie de Europa. Su geología y la escasez de crateres de impacto indican que la parte superior del hielo es continuamente reformada de manera que la superficie actual es de sólo 50 millones de años, aproximadamente el 1% de la edad del sistema solar.
Greenberg ha examinado tres procesos genéricos de rejuvenecimiento progresivo, por el que el material fresco en la superficie, abre grietas que se llenan de hielo fresco desde abajo, y perturban los parches de la superficie en el lugar y su sustitución por material nuevo.

Utilizando las estimaciones para la producción de oxidantes en la superficie, se encuentra que la tasa de ejecución en el océano es tan rápido que la concentración de oxígeno es superior a la de los océanos de la Tierra en sólo unos pocos millones de años.
Greenberg dice que las concentraciones de oxígeno son lo suficientemente grandes como para apoyar no solo a los microorganismos , sino también "macrofauna", es decir, los animales más complejos-como los organismos que tienen una demanda mayor de oxígeno.
El suministro constante de oxígeno puede apoyar unos 3 millones de kilogramos de macrofauna, asumiendo las demandas de oxígeno similares a los peces terrestres.
La buena noticia para la cuestión del origen de la vida es que habría un retraso de un par de millones de años antes de que el oxígeno llegara a la primera superficie del océano.
Sin ese retraso, la primera pre-química prebiótica y la primera estructura orgánica primitiva se vería interrumpida por la oxidación.
La oxidación es un peligro a menos que los organismos hayan evolucionado a la protección de sus efectos perjudiciales. La producción de oxígeno en la Tierra fue probablemente esencial para que la vida empezara aquí.
Richard Greenberg es autor del reciente libro “Unmasking Europa: The Search for Life on Jupiter 's Ocean Moon.”
El presentó sus hallazgos en la 41 ª sesión de la Sociedad Astronómica Americana de Ciencias Planetarias.

Por lo que cabe preguntarse: Quizas no sean los extraterrestres los que coloquen "Monolitos" para que evolucione la vida, quizas sea un proceso normal en la evolucion del Universo.
El tiempo nos dira la razon.

"End of transmission"