lunes, 31 de mayo de 2010

VOYAGER 2 VUELVE A TRANSMITIR


Los ingenieros del Jet Propulsión Laboratory de la NASA explicaron el pasado 17 de mayo, que un error en un bit en la memoria de un ordenador de a bordo de la Voyager 2 parece haber causado el cambio en el patrón de datos científicos que retorna la nave. El fallo consistió en que un valor en una posición de memoria se cambió de un 0 a un 1.
El 12 de mayo, los ingenieros recibieron una lectura de la memoria que formatea los datos que se envian a la Tierra. Los investigadores aislaron el bit un único bit en la memoria que había cambiado, y recrearon el mismo efecto en una computadora del JPL. El equipo descubrió que esto está de acuerdo con los datos que retorna la nave.
Los ingenieros han puesto a la sonda de la NASA Voyager 2, en un modo que transmite sólo información sobre su salud y datos acerca del estado de la nave, mientras diagnostican un cambio inesperado ocurrido en el patrón de devolución de datos. Los datos preliminares de ingeniería recibidos el 1 de mayo, muestran que la nave espacial mantiene en general una buena salud, y que el origen del problema radica en el sistema de datos de vuelo, que se encarga de formatear los datos para enviar a la Tierra. El cambio en el patrón de datos ha impedido que los responsables de la misión puedan descodificar los datos científicos.
Los primeros cambios en el retorno de los paquetes de datos procedentes de la Voyager 2, que se encuentra cerca del límite de nuestro sistema solar, se manifestaron el 22 de abril. Los miembros de la misión han estado trabajando para solucionar este problema y reanudar la corriente regular de datos científicos. Debido a una maniobra de giro prevista y a la moratoria sobre el envío de comandos, los ingenieros tuvieron su primera oportunidad para enviar comandos a la nave espacial el pasado 30 de abril. Las señales tardan casi 13 horas en llegar a la nave espacial y el mismo tiempo para que las señales viajen hasta la Tierra, dónde son recogidas por la Red de Espacio Profundo de la NASA.
Voyager 2 fue lanzada el 20 de agosto de 1977, unas dos semanas antes que su nave gemela, Voyager 1. Las dos naves espaciales son los objetos más distantes hechos por el hombre. Ambas naves se encuentran en el límite de la heliosfera, la burbuja que crea el Sol y que inunda todo el sistema solar. Los directores de la misión esperan que la Voyager 1 salga de nuestro sistema solar y entre en el espacio interestelar en los próximos cinco años, la sonda Voyager 2 sigue ese mismo camino y entrará en el espacio interestelar poco después. Voyager 1 se encuentra en buen estado de salud y funciona normalmente.
"La misión inicial de la Voyager 2 consistió en un viaje de cuatro años a Saturno, pero la sonda sigue retornando datos 33 años después", explicó Ed Stone, científico del proyecto Voyager del Instituto de Tecnología de California en Pasadena. "Ya nos ha dado notables vistas de Urano y Neptuno, planetas que nunca habíamos visto antes desde cerca. Sabremos pronto lo que necesita para que continúe su épico viaje de descubrimientos."
Los objetivos iniciales de las dos sondas Voyager fueron explorar los sistemas de Júpiter y Saturno.
Como parte de una extensión de la misión, la nave Voyager 2 también sobrevoló Urano en 1986 y Neptuno en 1989, aprovechando una rara alineación que se da sólo una vez cada 176 años para realizar un impresionante recorrido por los planetas exteriores. Entre sus muchos descubrimientos, la sonda Voyager 2 descubrió una gran mancha oscura en Neptuno, así como vientos en el planeta de 450 metros/seg (unos 1700 km/h). También detectó géiseres en erupción en el hielo rosado de nitrógeno que forma el casquete polar de la luna de Neptuno Tritón. En colaboración con su socio Voyager 1, también ayudó a descubrir volcanes activos en la luna de Júpiter, Io, así como ondas y estructuras trenzadas en los anillos de hielo de Saturno inducidas por la gravedad de sus lunas cercanas.
Voyager 2 está ahora a unos 13.800 millones de kilómetros de la Tierra. Voyager 1 está aún más lejos, a aproximadamente 16.900 millones de kilometros.
Las sondas Voyager fueron construidas por el JPL, que continúa operando ambas naves más de 30 años después.

"La ciencia será siempre una búsqueda, jamás un descubrimiento real. Es un viaje, nunca una llegada". Karl Poopper
"End of transmission"

viernes, 28 de mayo de 2010

2020:BASE LUNAR ROBOTICA

La agencia espacial Japonesa, JAXA, tiene planes para construir una base lunar antes de 2020. No para los seres humanos, sino para los robots, y construido por robots, también. Un equipo autorizado por el primer ministro de Japón ha elaborado planes preliminares para los humanoides y el rover robot que investigaran la topografía lunar en 2015, y luego iniciaran la construcción de una base cerca del polo sur de la luna.

Los robots y la base tendran alimentacion por energía solar, con un costo total de unos USD 2,2 mil millones dólares, de acuerdo con el equipo presidido por la Universidad de Waseda y su presidente Katsuhiko Shirai.
Algunos de los droides previstos pesan unos 300 kg (660 libras). Según se informa, serán capaces de operar dentro de 100 kilometros (60 millas) de la base. Estarán equipados con paneles solares, colocaran sismógrafos que investigaran la estructura interna de la luna, cámaras de alta definición, y brazos para recoger muestras de rocas, que serán devueltas a la Tierra a través de un cohete de retorno de muestras.
La ubicación exacta de la base será elegido a partir de las imágenes de alta resolución que envio a Japón la nave Kaguya, que ha proporcionado imágenes impresionantes de la superficie de la Luna ( ver video ) antes que finalizara su mision con un impacto controlado.
Conocida anteriormente como SELENE, el orbitador lunar realizó estudios de la composición, el campo gravitatorio y las características superficiales de nuestro satélite natural.
Kaguya (Luz Brillante) o Kaguya Hime (Princesa Luz Brillante) es el nombre de una princesa del folclore japonés que provenía de la Luna y que nació dentro de un tronco de bambú para satisfacer la necesidad filial de una pareja de ancianos que ya no podían tener hijos. Los responsables de la agencia espacial japonesa JAXA eligieron este nombre sabiendo cuál iba a ser el destino de su artefacto.
El satélite orbital Kaguya media 4,8 metros de alto y 2,1 metros de ancho. Su peso total era de unas tres toneladas, mientras que sus dos pequeños compañeros pesaban 50 kilogramos cada uno. El propósito de este ingenio espacial, al que JAXA ha calificado como “la misión de exploración lunar más ambiciosa en la era post-Apolo”, fue el estudio global de la Luna, poniendo énfasis en los temas relacionados con su origen y evolución, la distribución de elementos químicos y minerales existentes en su superficie y subsuelo, la intensidad y variaciones en su campo gravitatorio, el campo magnético residual que posee y el comportamiento de las partículas energéticas y plasma que alcanza a la Luna.
Todos estos datos ayudarán, una vez procesados y analizados, a encontrar futuros usos a la Luna, como ahora, se piensa tener laboratorios científicos con dotación robotica permanente, luego puede pensarse en tripulacion humana semi-permanente. El desarrollo de la sonda costó unos 560 millones de dólares.
Anteriormente, JAXA había fijado la meta de construir una base lunar tripulada a partir de 2030, y al parecer, la base de robótica sería una precursora. El plan para que astronautas visiten la Luna alrededor de 2020 lo tiene la Indian Space Research Organization (ISRO) y tambien la Administración Espacial Nacional de China (CNSA) que ha dicho que le gustaría tener una misión tripulada a la Luna en 2030.
Que pasa con la NASA? No está segura todavía. El programa Constellation parece haber sido cancelado, igual hay debates de los miembros del Congreso y otros sobre este tema. Pero, sin duda, incluso si la NASA decide ir a un asteroide o a Marte como destino, tendrían que empezar por practicar en la Luna.
Ahora, no seria mas apropiado trabajar todos juntos para hacer realidad el viaje ?
"El trabajo que nunca se empieza es el que tarda más en finalizarse". J.R.R. Tolkien
"End of transmission"

jueves, 27 de mayo de 2010

EL EFECTO MARIPOSA EN EL SOL


El "efecto mariposa" es un concepto que hace referencia la noción de sensibilidad a las condiciones iniciales dentro del marco de la teoría del caos. Su nombre proviene de un antiguo proverbio chino: "el aleteo de las alas de una mariposa se puede sentir al otro lado del mundo".

La idea es que, dadas unas condiciones iniciales de un determinado sistema natural, la más mínima variación en ellas puede provocar que el sistema evolucione en formas totalmente diferentes. Sucediendo así que, una pequeña perturbación inicial, mediante un proceso de amplificación, podrá generar un efecto considerablemente grande.

Esta interrelación de causa-efecto se da en todos los eventos de la vida. Un pequeño cambio puede generar grandes resultados o poéticamente: "el aleteo de una mariposa en Hong Kong puede desatar una tormenta en Nueva York".
Digamos que el efecto mariposa ocurre en los sistemas caóticos, no en otro tipo de sistemas dinámicos.

También cabe mencionar que muchos sistemas naturales lo pueden ser, aunque no necesariamente todos. Sin embargo,por ejemplo el clima ,resulta ser un sistema no lineal en donde numerosos procesos han mostrado la dificultad de poderse predecir más allá de un cierto umbral temporal.
Del mismo, modo los denominados sistemas complejos o no lineales son los que se rigen por una dinámica que se encuentra a "medio camino" entre los caóticos y los deterministas (que sí son predecibles; aunque también se da el caos en alguna clase de ellos). Por otro lado, dependiendo de la naturaleza de las formulaciones matemáticas de un modelo de simulación numérica, los resultados pueden ser estables, lineales y graduales, o inestables, súbitos e impredecibles.

Ahora el Observatorio Dinámico Solar o SDO, ha tomado más de 5 millones de imágenes, y los datos e imágenes espectaculares está permitiendo a los científicos solares empezar a entender la naturaleza dinámica de las tormentas solares.
Con el SDO, los científicos están viendo que la energía solar, incluso en eventos menores pueden tener grandes efectos en todo el mundo. "En esencia, estamos viendo el efecto mariposa en acción en el Sol ", dijo Dean Pesnell, el científico del proyecto SDO.

Las imágenes del ensamblador atmosferico (AIA), uno de los tres instrumentos a bordo de SDO, muestra registros de alta resolución de todo el disco, corona y cromosfera del Sol en más canales y, a una tasa más alta que nunca. "Esto nos permitirá acercar a los espacios pequeños y ver más detalles medidos en tiempo y espacio, y hacer zoom en cualquier parte donde queramos ", dijo Pesnell."Al mirar totalmente el Sol se puede ver cómo una parte afecta a otra.

"Incluso hay pequeños eventos reestructurados de las grandes regiones de la superficie solar", dijo Alan Title, investigador principal de AFP en Lockheed Martin Advanced Technology Center. "Ha sido posible reconocer el tamaño de estas regiones debido a la combinación de espacial, temporal y el área de cobertura proporcionada por AFP."

AFP observó un número de muy pequeñas llamaradas que han generado inestabilidad magnética y ondas con efectos observados con claridad sobre una fracción sustancial de la superficie solar. El instrumento captura imágenes del disco completo en ocho grupos diferentes de temperaturas que abarcan de 10.000 a 36-millones de grados Fahrenheit. Esto permite a los científicos observar eventos completos que son muy difíciles de discernir mirando en una banda de una sola temperatura, a un ritmo más lento, o sobre un campo de vista más limitado.
"SDO genera mayor cantidad de datos en un solo día que la misión TRACE produce en cinco años", dijo Neal Hurlburt de la misión de SDO, de Lockheed Martin.


"Todo lo que nace proviene necesariamente de una causa, pues sin causa nada puede tener origen". Platon

"Lo que llamamos casualidad no es ni puede ser sino la causa ignorada de un efecto desconocido" Voltaire


"End of transmission"

 


miércoles, 26 de mayo de 2010

YO, ROBOT EN EL ESPACIO R2D2 ?

Los astronautas a bordo de la Estación Espacial Internacional tendrán pronto a un nuevo compañero de cuarto (y no es humano).Es un humanoide.
En septiembre de 2010, el transbordador espacial Discovery entregará a Robonauta 2 ("R2", de manera abreviada) a la Estación Espacial Internacional, en donde se convertirá en el primer robot humanoide que ha viajado y trabajado en el espacio. Desarrollado en conjunto por la NASA y la empresa General Motors, R2 se parece un poco al robot C-3PO de la saga "La Guerra de las Galaxias", pero sin la habilidad de la locuacidad que tenía dicho personaje. Sin embargo, eso resulta conveniente, ya que los seres humanos que se encuentran a bordo necesitan a un trabajador que pueda empuñar herramientas de mayor utilidad mas que una "lengua larga".
"Nuestra meta es que R2 realice tareas rutinarias de mantenimiento que permitan a los miembros de la estación espacial dedicar más tiempo a los trabajos de mayor importancia", explica Ron Diftler, director del proyecto Robonauta, en el Centro Espacial Johnson. "Aquí tenemos a un robot que puede ver los objetos a los que se dirige, puede sentir su entorno y ajustarse a él de acuerdo con las necesidades. Eso es bastante humano. ¡Abre una puerta a posibilidades infinitas!"

El equipo espera enseñar al robot a hacer todo tipo de cosas en la estación espacial. Por ejemplo, R2 podría realizar tareas delicadas como preparar experimentos científicos para uso de la tripulación, o tal vez simplemente podría hacer funcionar una aspiradora.

R2 no podrá desplazarse libremente a través de la estación espacial, al menos no de manera inmediata. Inicialmente, el novedoso robot se encontrará confinado a una determinada ubicación en el laboratorio "Destiny" de la estación; sin embargo, el objetivo es que más adelante R2 se desplace.

Deseamos proporcionarle a R2 una pierna con la que se pueda sostener y anclar a distintos lugares. Usará sus manos para moverse de un lado a otro de la estación, de manera muy parecida a como se mueve un astronauta.
Primero, se debe evaluar y poner a prueba a R2 bajo gravedad cero y otros efectos del ambiente espacial. Luego, poco a poco, logrará "subir de rango", y lo hará progresando desde las actividades más simples, como monitorizar su propia salud, hasta la realización de tareas más complicadas.
El equipo en tierra, así como la tripulación de la Estación Espacial Internacional, controlarán al robot mediante sistemas gemelos, cada uno formado por una GUI (Graphic User Interface ó Interfaz gráfica de usuario) con botones de navegación, desplegada en una pantalla de computadora.
"R2 funciona con ‘autonomía supervisada’", comenta Diftler. "Puede pensar por sí mismo dentro de los límites que le definimos. Nosotros le enviaremos guías (secuencias de comandos)".
Así es, por ejemplo, como se controla a los vehículos exploradores Spirit y Opportunity, en Marte. Pero hay una diferencia.

"Nuestro robot puede ‘ver’, y el video tarda tan sólo de 2 a 6 segundos en llegar a nosotros, de modo que podemos observar casi en tiempo real (a modo de comparación, la señal de video solamente de regreso desde Marte tarda más de 10 minutos en llegar.) Si notamos que R2 hace algo que simplemente no está funcionando, le podemos decir de inmediato: ‘Detente. Intenta esto en su lugar’".
Diftler compara el trabajo con R2 con la supervisión de un nuevo empleado. "Al principio, le proporcionas una gran cantidad de instrucciones detalladas, pero después, una vez que se trabajó sobre las tareas problemáticas, sólo inspeccionas su trabajo de vez en cuando".


Sin embargo, su equipo continuará mejorando las oportunidades de avance en el campo de la robótica espacial. "Por ejemplo, a medida que desarrollemos este robot de manera más íntegra, su sistema de visión nos permitirá calibrar con mayor precisión sus movimientos. Podremos ajustar la manera en que R2 agarra cierto objetivo".

Con el simple agregado de piernas o ruedas, R2 podría algún día explorar un área sobre un planeta o asteroide en donde los humanos podrían posarse, o podría armar y desarmar estaciones de trabajo o hábitats.

"El aspecto más triste de la vida actual es que la ciencia gana en conocimiento más rápidamente que la sociedad en sabiduría" Isaac Asimov
"End of transmission"


viernes, 21 de mayo de 2010

CAMBIO CLIMATICO EN JUPITER



En un desarrollo que ha transformado el aspecto del mayor planeta del Sistema Solar , uno de los dos cinturones principales de nubes de Júpiter ha desaparecido por completo.
"Este es un gran evento", dice el científico planetario Glenn Orton del Laboratorio Jet Propulsion de la NASA. "Estamos monitoreando de cerca la situación y todavía no se entiende completamente lo que está pasando."

Conocido como el Cinturón Ecuatorial Sur (SEB), la banda de nubes marrones es dos veces más ancha que la Tierra y veinte veces más grande. La pérdida de tan enorme "franja" se puede ver con facilidad a mitad de camino en todo el sistema solar.
"En cualquier telescopio de tamaño medio, o incluso con prismáticos grandes, el aspecto de Júpiter siempre ha incluido a dos amplios cinturones ecuatoriales", dice el astrónomo aficionado, Anthony Wesley de Australia. "Recuerdo que de niño viendo a través de mi telescopio refractor en el patio trasero de mi casa Jupiter era inconfundible. Cualquiera que vea con su telescopio hacia Júpiter en este momento, sin embargo, verá un planeta con una sola cinta - una visión muy extraña."
Wesley es un observador veterano de Júpiter, famoso por su descubrimiento de un cometa que llego al planeta en 2009. Al igual que muchos otros astrónomos, se dio cuenta de la decoloración a finales del año pasado, "pero ciertamente no esperaba ver que desapareciera por completo", "Júpiter sigue sorprendiendo."
Orton piensa que el cinturón no haya desaparecido realmente, se puede suponer que se oculta debajo de algunas nubes altas.

Sin el presente SEB, la Gran Mancha Roja de Júpiter está rodeada casi ininterrumpidamente de blanco. "Es posible", plantea la hipótesis de "que algunos" cirros de amoníaco 'se han formado en la parte superior de la SEB, ocultando la SEB de la vista. " En la Tierra, blancas nubes cirrus finas están hechas de cristales de hielo. En Júpiter, el mismo tipo de nubes se pueden formar, pero los cristales están hechos de amoníaco (NH3) en lugar de agua (H20).
Orton sospecha que los cambios en los patrones globales de viento han aportado materiales ricos en amoniaco, por encima de la zona fría SEB, preparando el escenario para la formación en la gran altitud, de las nubes de hielo.
"Me encantaría enviar una sonda allí para averiguar lo que realmente está pasando".
De hecho, la atmósfera de Júpiter es un lugar misterioso que digno de exploración Nadie sabe, por ejemplo, ¿por qué la Gran Mancha Roja es roja, o lo que ha sostenido la furiosa tormenta durante tantos años. Ni la teoría explica por qué las bandas ecuatoriales gemelas son de color marrón, ni por qué desaparecen, mientras que la otra se mantiene. "Tenemos una larga lista de preguntas", dice Orton. No es la primera vez que la SEB se ha desvanecido.
"La SEB se desvanece a intervalos irregulares, las últimas en 1973-75, 1989-90, 1993, 2007, 2010," dice John Rogers, director de la Asociación Astronómica Británica de la Sección Jupiter. "En el 2007 se terminó desapareciendo bastante temprano, pero en los demás años de la SEB estaba casi ausente, como en la actualidad."
El regreso de la SEB puede ser dramático.
"Podemos esperar una explosión espectacular en las tormentas y torbellinos cuando la SEB reviva", dice Rogers. "Siempre empieza en un solo punto, y la perturbación se extiende rápidamente por todo el planeta a partir de ahí, siendo a menudo espectacular, incluso para los aficionados que calculan visualmente el planeta a través de telescopios de tamaño medio. Sin embargo no podemos predecir cuándo o dónde se pondrá en marcha. El precedente histórico dice que podría ser en cualquier momento en los próximos 2 años. Esperamos que en los próximos meses todos puedan tener una buena vista de Jupiter.

" Júpiter recolector de nubes, dios del trueno" Mitologia Romana

"End of transmission"



jueves, 20 de mayo de 2010

EXOBIOLOGIA: PARAMETROS PARA LA VIDA

El agua es vital para la vida tal como la conocemos. Pero no toda el agua, tiene vida.A través de los datos de ambientes extremos, los investigadores han encontrado los límites de lo que constituye las condiciones de habitabilidad de nuestro planeta. Esto podría ayudarnos a determinar qué tipo de agua en otros planetas sería más propensa a alojar vida.
El principio rector en nuestra búsqueda actual de la biología extraterrestre es "seguir el agua". Pero la nueva investigación sugiere que este objetivo debe ser refinado.
"Seguimos el agua caliente o tal vez el agua fría?" dice Eriita Jones de la Universidad Nacional de Australia, principal autor del estudio que aparece en el último número de la revista Astrobiology.

En la Tierra, sabemos que la vida puede sobrevivir en una amplia variedad de temperaturas del agua y presiones, y sin embargo hay lugares donde no se han encontrado seres vivos. Jones y su colega Charles Lineweaver ha realizado un estudio exhaustivo de lo lejos que la vida se ha expandido en el agua "disponible" en la Tierra.
"Tratamos de cuantificar mejor nuestra comprensión de la biosfera terrestre ", dice Jones.
Sus resultados muestran que sólo el 12 por ciento del volumen de la Tierra donde existe agua líquida es conocida para albergar la vida. En cuanto al resto de este volumen, la vida que se supone nunca encontró la manera de adaptarse a las condiciones allí, a pesar de haber tenido varios miles de millones de años de evolución para trabajar.
Esto puede significar que una fracción del agua líquida es estrictamente inhabitable - tanto aquí como en exoplanetas.

Para cuantificar lo que constituye el agua habitable, Jones y Lineweaver trazaron la gama de condiciones de agua en un diagrama de presión y temperatura.
"Esta es una manera muy natural para parametrizar cualquier planeta", dice Jones.
A pesar de que suele pensar el agua líquida entre cero y 100 grados centígrados, esto sólo es cierto para el agua pura a nivel del mar y de la presión atmosférica (alrededor de 14,7 libras por pulgada cuadrada o 1014 milibares). A la presión alta, así, el agua permanece en estado líquido por encima de 100 grados Celsius. De hecho, los autores estiman que el agua líquida puede existir hasta en una profundidad máxima de 75 kilómetros bajo la superficie de la Tierra, donde la temperatura es superior a 400 grados centígrados y la presión es la que 30.000 veces en la superficie.
Pero, ¿podría vivir la vida en esta agua? Probablemente no. La temperatura más alta conocida para sustentar la vida es de 121 grados Celsius. Algunos biólogos creen que debe haber organismos capaces de sobrevivir incluso a temperaturas más altas, pero nada se ha descubierto todavía.
Jones y Lineweaver toman el límite actual de 122 grados Celsius a ser el límite superior de temperatura para el agua habitable. En el otro extremo del termómetro, el agua líquida se puede encontrar en la Tierra a 89 grados bajo cero en laminas delgadas.

Sin embargo, la temperatura del agua más fría conocida para la vida activa es de 20 grados bajo cero, que es lo que los investigadores toman como límite inferior de habitabilidad.
Los investigadores también observaron los límites de presión. La vida ha sido encontrada en 5,3 kilómetros bajo la superficie, donde la presión es 1500 veces mayor que en la superficie. Esta es verdaderamente la más alta presión de agua habitable ,ya que nadie ha cavado más profundo en busca de la vida.
En cuanto a baja presión, la vida se ha encontrado en lo alto de la atmósfera donde el aire es delgado, pero estos microorganismos suelen ser latentes y sólo se reavivan cuando se les da los nutrientes necesarios.

Los autores por lo tanto toman el límite de baja presión para la vida activa a un tercio de la presión atmosférica, lo que corresponde a la altitud en la cima del monte Everest.
De acuerdo con los límites, la vida en nuestro planeta se limita a una capa delgada que se extiende aproximadamente de 10 kilómetros sobre la superficie de hasta 5 kilómetros por debajo (o hasta una profundidad de 10 kilómetros en el océano). Esto deja deshabitada el 88% del volumen donde el agua existe en la Tierra.
"Esto demuestra que la vida y el agua no son equivalentes", dice Jones. "Puede haber una gran cantidad de agua líquida que es hostil a la vida."
Casi todo el líquido del agua de la Tierra se encuentra en las regiones habitables. El punto es que sólo una pequeña fracción de las condiciones del agua en la Tierra es amigable a la vida.
"Dicho de esta manera suena sorprendente y parece sugerir que la estrategia de "seguir el agua" necesita repensarce ", dice Chris McKay de la NASA Ames Research Center.
Pero él piensa que esto es un poco engañoso. El único factor limitante en verdad en este análisis es la observación de que la vida, aparentemente, no puede sobrevivir por encima de 122 grados Celsius.
"Ninguno de los otros mundos (salvo Venus) tienen temperaturas de superficie que son lo suficientemente caliente como para que este límite sea relevante", dice McKay.
Sin embargo, las temperaturas más calientes se pueden encontrar bajo la superficie. Marte, por ejemplo, puede ser demasiado frío para el agua líquida en su superficie, pero no hay razón para creer que no haya agua liquida subterranea.


Jones y Lineweaver trabajan actualmente en modelos de la corteza, manto y el núcleo de Marte y el uso de estimaciones de flujo de calor para la construcción de un diagrama de fase del agua de Marte, como el que hizo para la de agua de la Tierra.Los resultados se muestran en lo que potencialmente pueda ser habitable las profundidades del agua (según se define en el estudio actual).

Este tipo de analisis de "agua habitable" también podría ser usado para los océanos líquidos que se cree que yacen bajo las costras de hielo de la luna de Júpiter Europa y las lunas Encelado y Titan de Saturno. Y puede ayudar a caracterizar exoplanetas con un razonable diagrama estimado.
"Puede que nos muestren dónde enfocar nuestra búsqueda de vida", dice Jones.

"El agua es el vehículo de la naturaleza" Leonardo Da Vinci

" End of transmission"


miércoles, 19 de mayo de 2010

FERMILAB: MATERIA VS. ANTIMATERIA

El hecho aparentemente inevitable que las partículas de materia y antimateria se destruyen entre sí en el contacto ha desconcertado de largo a los físicos preguntando cómo la vida, el universo o cualquier otra cosa puede existir en absoluto. Pero los nuevos resultados de un experimento de acelerador de partículas sugieren que la materia parece ganar al final.

El experimento ha puesto de manifiesto una pequeña - pero significativa - 1 por ciento de diferencia entre la cantidad de materia y antimateria producida, que podría revelar la forma en que nuestra existencia dominada por la materia se produjo.
La teoría actual, conocida como el Modelo Estándar de física de partículas, ha predicho alguna violación de la simetría materia-antimateria, pero no lo suficiente para explicar cómo surgió nuestro universo consiste en su mayor parte de la materia con un rastro apenas de antimateria.

Pero este último experimento se acercó con una relación desequilibrada de la materia a la antimateria que va más allá del desequilibrio predicha por el modelo estándar. En concreto, los físicos descubrieron una diferencia de 1 por ciento entre los pares de muones y antimuons que surgen de la desintegración de las partículas conocidas como mesones B.
Se llego a estos resultados luego de el análisis de ocho años por acumulacion de datos del colisionador Tevatron en el Departamento de Energía de Fermi Nacional Accelerator Laboratory en Batavia, Illinois
"Muchos de nosotros sentimos la piel de gallina cuando vimos el resultado", dijo Stefan-Soldner Rembold, un físico de partículas en la Universidad de Manchester en el Reino Unido. "Sabíamos que estábamos viendo algo más allá de lo que hemos visto antes y más allá de lo que las teorías actuales pueden explicar."

El colisionador Tevatron y su primo mayor, el Gran Colisionador de Hadrones del CERN en Suiza, puede romper la materia y partículas de antimateria para crear energía, así como de nuevas partículas y antipartículas. De lo contrario, veriamos antipartículas debidos únicamente a fenómenos extremos como las reacciones nucleares o rayos cósmicos de estrellas moribundas.


Las mediciones realizadas, son todavía limitadas por el número de colisiones registradas hasta ahora. Eso significa que los físicos seguirá recogiendo datos y profundizando el análisis de la materia-antimateria en lucha por la dominación.
"El universo no fue hecho a medida del hombre; tampoco le es hostil: es indiferente". Carl Sagan


"End of transmission"




martes, 18 de mayo de 2010

UN VELERO JAPONES RUMBO AL SOL



La agencia aeroespacial Japonesa (JAXA) lanzará una ambiciosa misión compuesta por una sonda espacial -cuyo objetivo principal es el planeta Venus- y por una vela solar.

El cohete responsable de la misión despegará desde la base Tanegashima , transportando en su interior a la cometa espacial “Ikaros” la que logra desplazarse por el espacio gracias a la presión que ejercen las partículas solares sobre su vela.


En la fabricación de la vela se utilizó un material especial cuya textura es más fina que la de un cabello humano, mientras que el resto de la nave está cubierta por celdas fotovoltaicas para la generación de electricidad. Gracias a esta combinación la nave logra avanzar utilizando un empuje híbrido: por medio de la electricidad y la presión (sin necesidad de contar con combustible).
La vela Ikaros viajará a bordo del cohete H-2A en forma de cilindro, de manera que cuando se encuentre en el espacio sea desplegada su vela cuadrada cuya diagonal mide 20 metros (14 metros de lado).

La sonda espacial que viajará junto a la vela se denomina Akatsuki y al llegar a Venus trabajará en conjunto con la Venus Express, otra sonda enviada hacia fines de 2005 por la ESA. Su misión será observar el clima del planeta con la finalidad de comprender mejor la formación del medio ambiente en la Tierra.

También se llama Planet C, el cuadro en forma de nave que debe llegar a Venus en diciembre y observar el planeta desde una órbita elíptica , a una distancia de entre 300 y 80.000 kilómetros (49.600 millas a 186), en busca de - entre otras cosas - signos de rayos y volcanes activos.

La sonda 'Akatsuki' (Aurora) está diseñada para estudiar el clima venusiano con varias cámaras ultravioletas y de infrarrojos, que entre otras cosas permitirán elaborar un detallado mapa de las espesas nubes que cubren el planeta.
Takeshi Imamura, uno de los científicos del proyecto, explica
que en la atmósfera de Venus sopla un viento de hasta 400 kilómetros por hora, una velocidad 60 veces mayor que la de la rotación del planeta (un día de Venus corresponde a 243 días terrestres).
"Akatsuki va a investigar el porqué de este misterioso fenómeno", además de estudiar la formación de las nubes de ácido sulfúrico que rodean el planeta y detectar posibles relámpagos.

Hasta ahora ha habido satélites para elaborar imágenes dinámicas en tres dimensiones de la atmósfera terrestre, pero Akatsuki es la primera sonda de este tipo que Japón enviará para observar otro planeta.
La misión está pensada para complementar los datos de la sonda Venus Express de la Agencia Espacial Europea (ESA), que entró en la órbita del planeta en abril de 2006 con la misión de estudiar en gran detalle la atmósfera mediante su Espectrómetro de Imagen Infrarroja y Visible (Virtis, por sus siglas en inglés).

Ikaros (Nave Vela Interplanetaria Acelerada por la Luz del Sol), un vehículo impulsado por una vela solar que -según sus creadores- podría enseñarnos a utilizar este sistema de propulsión para recorrer el sistema solar.

“Ésta es la primera nave de la historia que posee un motor híbrido”, dicen en la Agencia de Exploración Aeroespacial de Japón (JAXA), debido a que es propulsada empleando la presión que ejercen los fotones emitidos por el Sol sobre la delgada vela, y obtiene energía eléctrica desde los paneles solares que se encuentran instalados sobre ésta. Ikaros debería alcanzar Venus dentro de 6 meses, y seguir viaje hasta el lado opuesto del Sol. Si todo sale bien, debería llegar a su destino luego de 36 meses de viaje. Louis Friedman, el director ejecutivo de la Sociedad Planetaria en Pasadena, California, que ha participado de proyectos similares en el pasado, dice que “resulta muy emocionante probar tecnologías como estas en una misión interplanetaria”, y cree que Japón está demostrando “una gran visión de futuro.”

Físicamente, Ikaros parece un gran cometa. Obviamente, en lugar de volar impulsada por el viento, aprovecha la presión que ejerce la luz solar sobre su superficie, a la vez que obtiene energía extra de la fina película de células solares que se encuentran diseminadas sobre la vela.

El objetivo de JAXA es demostrar la factibilidad de construir una sonda dotada de una vela solar que sea capaz además de recolectar la energía necesaria para hacer funcionar motores de propulsión de iones, constituyendo un sistema de propulsión híbrido. “En última instancia, el objetivo es disponer de un vehículo eléctrico que funcione a partir de la propulsión de iones, y una vela solar que se utilizaría en las misiones planetarias lejanas”, explica Friedman.

Todos los experimentos que se han realizado para probar una vela solar han fracasado estrepitosamente. La Sociedad Planetaria desarrolló Cosmos-1 en 2005, una vela solar que se perdió cuando el cohete ruso que la transportaba falló. La NASA lo intentó con su NanoSail-D, que también se destruyó al fallar el cohete Falcon 1 de SpaceX en 2008. La misma agencia espacial de Japón lo intentó en 2004, pero tampoco funcionó. Este marco histórico es útil para tener una idea de la expectativa que se ha creado en torno a Ikaros.

«Te advierto, Ícaro, que debes volar a media altura, para evitar que las olas recarguen tus alas si vas demasiado bajo, y que el calor las queme si vas demasiado alto" DEDALO (Mito griego)

"End of transmission"



MONSTRUOS ESPACIALES CUANTICOS


Segun un articulo de New Scientist la gravedad podría tener el poder de crear monstruos cuánticos. Un fuerte campo gravitatorio puede inducir un efecto desbocado en las fluctuaciones cuánticas que se producen en el espacio, aparentemente vacío, resultado en una creciente concentración de energía que puede hacer que exploten estrellas o se creen agujeros negros. Así lo dicen Daniel Vanzella y William Lima, de la Universidad de São Paulo en Brasil.
No se piensa que los fenómenos cuánticos tengan gran influencia sobre los procesos a escala astrofísica, tales como comprimir nubes de gas y convertirlas en estrellas.
Ése es el dominio de la gravedad, que, a su vez, no se supone que sea muy afectada por los sucesos cuánticos, tal como un elefante no es consciente de los microbios que hay en su piel. Sólo en algunos pocos casos exóticos —como las singularidades dentro de los agujeros negros—, la gravedad y las fuerzas a nivel cuántico influyen en los mismos procesos.
Ahora, unos cálculos realizados por Vanzella y Lima indican que la gravedad puede desencadenar una poderosa reacción en los fluctuantes campos de fuerza cuánticos que existen en el aparente espacio vacío, y que esta reacción puede ser suficiente para influir en la evolución de objetos grandes, como las estrellas.
De acuerdo con el principio de incertidumbre, partículas virtuales emergen a la existencia y luego desparecen rápidamente en el vacío del espacio. La pareja calculó que un campo gravitacional suficientemente potente, como el creado por un objeto denso como una estrella de neutrones, podría crear una región cerca de la estrella en la que estas partículas virtuales queden empaquetadas densamente.
Sus cálculos sugieren que la densidad de energía total de esta región crecerá exponencialmente hasta empequeñecer la energía del objeto que generó el campo gravitatorio: un monstruo de partículas virtuales que supera la fuerza de su creador.
Se desconoce aún qué es capaz de hacer ese monstruo, pero Vanzella y Lima especulan que es posible que la energía acumulada haga estallar una estrella de neutrones, o colapsarla en un agujero negro, o una combinación de los dos cosas.
Sin embargo, ninguno de los campos cuánticos basados en las fuerzas conocidas, como el electromagnetismo, sería capaz de causar que una estrella de neutrones colapse. Sólo un campo cuántico aún sin descubrir reaccionaría a la gravedad de una estrella de neutrones.
Sin embargo, la pareja dice que los campos cuánticos conocidos pueden tener influencia en los procesos astrofísicos si han sido provocadas por efectos gravitacionales a escala mucho más grande, por ejemplo en cúmulos de galaxias o supercúmulos.
David Toms, de la Universidad de Newcastle, Reino Unido, está intrigado por la idea. “Es sorprendente que no se señalara anteriormente”, dice.
Paul Anderson, de la Universidad Wake Forest en Winston-Salem, Carolina del Norte, también está impresionado por la demostración de la pareja de que los campos cuánticos pueden rivalizar a veces con la gravedad como la fuerza dominante a gran escala. Pero él dice que no está claro si el proceso podría tener importantes efectos astrofísicos.
"La fisica tiene un historial de sintetizar muchos fenomenos en unas cuantas teorias" R. Feynman
"End of transmission"

lunes, 17 de mayo de 2010

EL UNIVERSO DENTRO DE UN AGUJERO NEGRO ?

¿Podría nuestro universo estar dentro de un agujero negro que se encuentra dentro de otro universo mucho mayor? Algunos, como el físico teórico Nikodem Poplawski, de la Universidad de Indiana, creen que si. O al menos, ha logrado elaborar un intrincado modelo capaz de demostrar que todos los agujeros negros pueden tener en su interior agujeros de gusano, dentro de los cuales pueden existir otros universos. Esta teoria podría explicar entre otras cosas el origen de la inflación cósmica, ya que muchos cientificos comenzaron a dudar del Big Bang y su teoria de la inflacion a partir de la gran explosion.

Poplawski ha utilizado un modelo matematico Euclidiano para demostrar que todos los agujeros negros pueden tener agujeros de gusano y que dentro de ellos, a su vez, existirían universos completos que fueron creados junto con el agujero negro original.

En su modelo, utiliza un sistema de coordenadas Euclidiano conocido como coordenadas isotrópicas para describir el campo gravitatorio del agujero negro y modelar el movimiento geodésico radial de una partícula masiva que se encuentra en su interior. Al analizar el movimiento radial de esta partícula a través del horizonte de eventos -la “frontera” que separa al agujero negro del resto del universo- en dos tipos de agujeros negros (el de Schwarzschild y el de gusano o de Einstein-Rosen).

Poplawski ha encontrado que los observadores externos sólo pueden ver el agujero negro, el por ahora hipotético universo de su interior no puede observarse a menos que el observador se encuentre también dentro del agujero. Si está en lo cierto, será muy complicado demostrar que realmente hay algo así dentro de un agujero negro en particular.

Poplawski ha desarrollado mucho su teoría, aprovechando los avances realizados por los notables físicos que lo precedieron. “Debido a que la Teoría de la Relatividad de Einstein no prefiere una orientación temporal sobre otra, si un agujero negro puede formarse a partir del colapso gravitatorio de la materia que atraviesa un horizonte de eventos en el futuro, es posible también invertir el proceso. Tal situación describiría la explosión de un agujero blanco: materia surgiendo de un horizonte de eventos situado en el pasado, algo muy parecido a un universo en expansión”, explica. El físico dice que un agujero blanco está conectado con uno negro a través de lo que los científicos llaman un “puente de Einstein-Rosen” o “agujero de gusano” y es, al menos hipotéticamente, la inversión temporal de un agujero negro.


El trabajo de Poplawski sugiere que todos los agujeros negros -no sólo los propuestos por Schwarzschild y Einstein-Rosen- pueden tener agujeros de gusano, cada uno de ellos con un universo en su interior. ¿Que implica esto? Que “nuestro universo podría haberse formado dentro de un agujero negro que existe en otro universo”, dice Poplawski
A pesar que sin tener un doctorado en física resulta bastante complicado seguir el razonamiento de este científico (y teniéndolo seguramente también), lo cierto es que su trabajo podría evitar los inconvenientes que muchos especialistas le encuentran a la teoría del Big Bang, o resolver el problema de la pérdida de información que plantean los agujeros negros debido a que la materia se pierde cuando pasa por el horizonte de eventos.


"Nada perece en el Universo; todo cuanto acontece en el no pasa de meras transformaciones" ( Pitagoras de Samos )

"End of transmission"




viernes, 14 de mayo de 2010

CORRELACION: CAUSAS ASTRONOMICAS Y CAMBIO CLIMATICO-NUEVO ANALISIS

En un análisis sobre los últimos 1,2 millones de años, la geóloga Lorraine Lisiecki de la Universidad de California en Santa Bárbara ha descubierto un patrón que conecta los cambios regulares del ciclo orbital de la Tierra a los cambios en el clima terrestre.
Lisiecki realizó su análisis climático mediante el examen de núcleos sedimentarios oceánicos. Estos núcleos fueron recolectados en 57 puntos diferentes del mundo. Analizando los sedimentos, los científicos pueden reconstruir el clima de los últimos millones de años. La contribución de Lisiecki es la conexión del registro climático con el ciclo orbital del planeta.Se sabe que la órbita de la Tierra alrededor del Sol cambia de forma cada 100.000 años. La órbita se torna más circular o más elíptica, es decir que su excentricidad varía. Un aspecto relacionado es el ciclo de 41.000 años que describe la inclinación del eje de la Tierra.
Las glaciaciones también han acaecido cada 100.000 años. Lisiecki ha comprobado que la secuencia cronológica de los cambios en el clima y la de los cambios en la excentricidad coinciden. Tal como señala Lisiecki, la correlación entre el ciclo orbital y el climático es una fuerte evidencia de un vínculo entre los dos.
Es poco probable que ambos fenómenos no estén relacionados entre sí.

Además de constatar la relación entre el cambio de la excentricidad orbital y el establecimiento de los períodos de glaciación, Lisiecki ha encontrado una correlación sorprendente.

Ha descubierto que los ciclos glaciales más grandes se produjeron durante los cambios más débiles en la excentricidad de la órbita terrestre. Y que los cambios más fuertes en la órbita coincidieron con cambios más débiles en el clima. Esto podría significar que el clima de nuestro mundo tiene una inestabilidad interna además de sensibilidad a los cambios orbitales.La conclusión de Lisiecki es que en el patrón de cambios climáticos naturales del último millón de años probablemente intervienen interacciones complejas entre las diferentes partes del sistema climático, así como tres tipos de movimiento de la Tierra.
Los primeros dos tipos son la inclinación y la excentricidad de la órbita. La tercera es la precesión, o el cambio en la orientación del eje de rotación.
La teoría planetaria que elaboró el matemático serbio, conocida como los ciclos de Milankovitch, plantea que las grandes variaciones climáticas que afectan a la Tierra, se deben al efecto combinado de estos tres movimientos. Y para comprobarlo sometió su hipótesis a una exhaustiva prueba que retrocedía cientos de miles de años en el pasado.


Después de muchos años de afinamiento de su modelo matemático pudo comprobar que, efectivamente, los ciclos propuestos por la teoría se correlacionaban razonablemente con los registros paleoclimáticos recogidos en muchas partes del mundo.
Cuando Milankovitch dio a conocer su teoría, no recibió la acogida esperada. Durante muchos años su propuesta fue considerada sólo como un ejercicio matemático-astronómico curioso, pero desde mediados de la década de los 70 (del siglo pasado) la situación comenzó a cambiar y ahora es ampliamente aceptada por la comunidad científica y utilizada en todos los estudios sobre las glaciaciones.
Aunque algunos la cuestionan, ya que existen algunos eventos que no se cumplen exactamente según lo previsto por la teoría, es evidente que los Ciclos de Milankovitch mucho tienen que ver con los grandes cambios climáticos que sufre el planeta.
La presencia de influencias orbítales en los cambios climáticos de la tierra es tan evidente, que puede ser detectada no solo en altas latitudes, sino en los trópicos. Una alta cantidad de pruebas extraídas de los hielos de la Antártica, Greenland, y otras localidades continentales, acusan un patrón dinámico de fluctuación del clima terrestre que se extiendes a graves de las edades geológicas.
La teoría de Milankovitch, es un cuerpo de conocimiento lógico, astronómico-matemático, que en los ojos de muchos científicos cuaternarios explica la conexión de la naturaleza dinámica del clima, con cambios periódicos en la orbita del planeta.A través de esta teoría, Milutin Milankovitch, identifico el rol primario de la insolación de verano, en el crecimiento de las capas de hielo; esta insolación es el motor real que mueve el siempre cambiante estado del clima terrestre. Al mismo tiempo, esta teoría señala la naturaleza no lineal de la respuesta de los sistemas climáticos regionales, como elementos constitutivos de un sistema climático de proporciones globales.
Finalmente, es bueno recordar una vez más que, desde la formación de la Tierra hace 4.500 millones de años, el clima ha sufrido permanentes cambios, algunos suaves otros violentos, pero en cualquier caso sus condicionantes siempre fueron naturales. La gran incógnita a la que nos enfrentamos actualmente, es saber cuáles serán las consecuencias de la descontrolada intervención humana en el planeta, y su impredecible efecto en el clima y en el destino, no sólo de la civilización, sino también de nuestro hogar cósmico.
"Primero, fue necesario civilizar al hombre en su relación con el hombre. Ahora, es necesario civilizar al hombre en su relación con la naturaleza y los animales". Victor Hugo
"End of transmission"

jueves, 13 de mayo de 2010

ARMONIA DEL UNIVERSO:SONIDOS DEL SOL

La tradición que consideraba al Universo como un gran instrumento musical se prolonga durante la Edad Media y hasta el siglo XVII, en el que tanto Kircher (que hablaba de “la gran música del mundo”) como Fludd (que concebía un Universo monocorde en el que los diez registros melódicos evocados por los pitagóricos traducían la armonía de la creación), dejaron constancia de su vigencia. Sin embargo, fue el astrónomo Kepler quien estableció que un astro emite un sonido que es más agudo tanto en cuanto su movimiento es más rápido, por lo que existen intervalos musicales bien definidos que están asociados a los diferentes planetas. Kepler postuló, en su obra Harmonices Mundi, que las velocidades angulares de cada planeta producían sonidos. De hecho, Kepler llegó a componer seis melodías que se correspondían con los seis planetas del sistema solar conocidos hasta entonces. Al combinarse, estas melodías podían producir cuatro acordes distintos, siendo uno de ellos el acorde producido al inicio del universo, y otro de ellos el que sonaría a su término.

Casi un siglo después, Newton engloba dos visiones del mundo que parecían antagónicas: el mundo mecanicista (el gran reloj universal) y el orden superior que rige al Universo. Su visión mecanicista, que permitió la predicción de apariciones de cometas e incluso el descubrimiento de Neptuno mediante operaciones de cálculo, reforzó la idea de que el Universo manifiesta una gran armonía.
De esta forma, desde los pitagóricos a la física moderna, todas las propuestas teóricas que han pretendido explicar el mundo han utilizado la misma noción de armonía evocada por Newton. Después de Newton, la armonía será invocada por los físicos para describir y comprender el mundo, aunque de forma diferente. Einstein, por ejemplo, descubrió la Relatividad porque estaba convencido de la armonía del Universo. El nuevo lenguaje de la física y la astrofísica habla de espectros, frecuencias, resonancias, vibraciones y de análisis armónico, según el cual una señal variable en el tiempo puede describirse mediante una composición de funciones trigonométricas.

Por lo general, esta armonía universal es descrita más de forma matemática y geométrica que musical: a finales del XIX, los físicos descubren que los rayos de emisión que se producen de una des-excitación del átomo se expresan mediante una fórmula única compuesta de números enteros, similares a los intervalos musicales. En la actualidad, la armonía espectral se explica a través de la mecánica cuántica, ya que los niveles de energía de los electrones de un átomo, que son discontinuos, se pueden expresar también mediante números enteros.


Esta armonía oculta ha adoptado así un nuevo nombre, la simetría, ya que la física actual emplea las simetrías geométricas para describir, unificar y clasificar a las partículas elementales y sus interacciones, así como para explicar los diferentes modelos teóricos del Universo. Por ejemplo, una de las más recientes teorías físicas describe a las partículas elementales no como corpúsculos, sino como vibraciones de minúsculas cuerdas, consideradas entidades geométricas de una dimensión. Sus vibraciones se fundan en simetrías matemáticas particulares que representan una prolongación de la visión pitagórica del mundo y la recuperación, en la más moderna visión del mundo, de la antigua creencia en la música de las esferas.


Con ayuda de los satelites de la NASA TRACE y el SDO que estudiaron y estudian el Sol, los científicos del Southwest Research Institute (SwRI) en San Antonio (Texas), han descubierto que la atmósfera del Sol realmente “suena”, tal como habían anticipado los pitagóricos y la tradición científica posterior, debido a que está llena de ultrasonidos en forma de ondas.


Según este descubrimiento, la tradicional música de las esferas consiste en realidad en un “ultrasonido solar” que interpreta una partitura formada, según el satélite de la NASA, por ondas 300 veces más profundas que el sonido de la más profundas vibraciones audibles por el oído humano, con una frecuencia de 100 mili Hertz en periodos de 10 segundos. Un hertz es la frecuencia de un fenómeno periódico cuyo periodo es 1 segundo. El ser humano no puede escuchar sonidos de frecuencia menor a 16 Hz (sonidos infrasónicos), ni mayor de 20 kHz (sonidos ultrasónicos o supersónicos).


Según sus descubridores, en diez segundos estas ondas se convierten en ultrasónicas debido a que los átomos individuales experimentan en el Sol sólo unas pocas colisiones durante el paso breve de cada onda, al igual que ocurre con el ultrasonido aquí, en la tierra. Las ondas ultrasónicas se producen o bien por el choque repentino de flujos electromagnéticamente inducidos en la superficie solar, o bien por el choque de determinadas ondas de baja frecuencia sonora, cuando éstas se levantan como las olas del mar desde la superficie del sol. Ambas razones podrían explicar, además del sonido de la música de las esferas, otro viejo misterio de nuestro Sol: la fuente de calor extra con la que cuenta esta estrella en su superficie.


A una temperatura superior a los 100.000 ºC, la cromoesfera, situada entre el núcleo del sol y el arco solar, está aproximadamente 20 veces más caliente que la superficie del Sol (que tiene una temperatura de 6.000 ºC). La corona solar (que rodea al sol), está todavía más caliente: 200 veces más que su superficie. Aunque los científicos habían intentado buscar las razones para esta diferencia durante 50 años, no habían dado con ellas.


Las ondas de sonido son detectadas desde lejos como pequeñas fluctuaciones en la luminosidad de las emisiones solares ultravioletas. El ultrasonido solar está en el límite de lo que puede detectar TRACE, y es tan débil que las ondas individuales no se registran. Aunque el descubrimiento ayudará a resolver un misterio establecido por décadas acerca del Sol y del clima espacial, al mismo tiempo constituye una nueva e inestimable contribución a la teoría de la música de las esferas.


"Asi como los ojos estan formados para la astronomia, los oidos lo estan para percibir los movimientos de la armonia" PLATON


"End of transmission"



martes, 11 de mayo de 2010

VIAJE EN EL TIEMPO: TEORIA HAWKING

Desde que era niño me fascinaba el tema de viajar por el tiempo, muchos articulos y libros, ademas de series y peliculas he visto sobre este tema y nunca me convencio la idea de su posibilidad factica. Ahora el profesor Hawking en un articulo publicado la semana pasada en el Daily Mail nos muestra la teoría detrás de un viaje en el tiempo ya sea con un acelerador de partículas, un agujero de gusano o una nave espacial que acaricie la velocidad de la luz.

"Antes cuando hablaba de viajar en el tiempo me decían que estaba desquiciado. Pero en estos días ya no soy tan cauto". Hawking fue acusado por el fundador de la exopolítica de impulsar una guerra contra seres hiperdimensionales.

El famoso físico, que utiliza una computadora para hablar y está confinado desde años a una silla de ruedas, hasta nos sugiere que es lo que haría si lograra ser un voyeur transtemporal: "Si tuviera una máquina en el tiempo visitaría a Marilyn Monroe en su plenitud o le 'cairía' a Galileo en el momento que voleteó su telescopio hacia el cielo. Tal vez hasta viajaría al fin del universo a ver como acaba nuestra historia cósmica".

La premisa de Hawking yace en la teoría de la relatividad de Einstein, sugiriendo que el tiempo se mueve más rápido en algunos lugares que otros, haciendo posible moverse junto con este río hacia el futuro -pero no hacia el pasado.

Una de las posibilidades que describe son los agujeros de gusano: "pequeños atajos entre el tiempo-espacio que se forman constantemente, desaparecen y reforman dentro del mundo cuántico. Y en realidad enlazan dos lugares diferentes y dos tiempos diferentes".
"Lamentablemente estos túneles en realidad sólo miden un millon de billones de trillones de centímeros de largo. Demasiado pequeños para que un humano los atraviese. Pero hacia allá es que nos lleva la noción de maquína del tiempo de agujeros de gusano. Algunos científicos creen que es posible capturar un agujero de gusano y agrandarlo muchos billones de veces para que sea lo suficientemente grande para que un humano o hasta una nave pueda cruzarlo".

Agujeros negros supermasivos como el del centro de nuestra galaxia constituyen un tipo de agujeros de gusano, aunque podrían llevar a otras dimensiones o hasta a otro universo. Para atravesar uno de estos "wormholes" el ser humano necesitaría un vehículo que pueda acercarse a la velocidad de la luz. El véhículo más rápido hasta la fecha es el Apolo 10 que ha llegado a los 25 mil millas por ahora. En la actualidad existe la tecnología para ir mucho más rápido que eso, sin embargo necesitaríamos ir 2 mil veces más rápido.

"La nave necesitaría ser lo suficientemente grande para llevar una enorme cantidad de combustible (o encontrar un "combustible cósmico"), suficiente para acelerar hasta cerca de la velocidad de la luz. Llegar justo al límite de velocidad cósmico tardaría 6 años. La aceleración incial sería poca porque la nave sería muy pesada.
Gradualemente se incrementaría la velocidad y pronto cubriría distancias masivas. En una semana ya habría llegado a los límites de los planetas exteriores. Después de dos años llegaría a la mitad de la velocidad de la luz y estaría más allá de los límites de nuestro sistema solar. A los cuatro años estaría viajando al 90% de la velocidad de la luz, a 30 billones de millas de la Tierra y empezaría a viajar en el tiempo.
Por cada hora dentro de la nave, pasarían dos en la Tierra. Una situación similar a la nave que orbitaba el super agujero negro. Dos años más de aceleración y la nave llegaría a su máximo, el 99% de la velocidad de la luz. Un solo día dentro de la nave serían un año en la Tierra. Nuestra nave estaría volando hacia el futuro.
Bajo la relatividad de Einsten, el 100% de la velocidad de la luz equivale a la eternidad, tal vez por esta razón los fotones no podrían exhibir algun tipo de envejecimiento o decadencia.
Entre la literatura de conspiración, existe la teoría de que el hombre ya ha viajado en el tiempo, en el experimento Philadelphia, en el que participó supuestamente Nichola Tesla.
Por supuesto viajar en el tiempo produce una serie de paradojas irreconciliables, particularmente si se hace al pasado quizás alterando las líneas de tiempo del universo o hasta bifurcándolo y fracturando la realidad (algunos científicos especulan que sí es posible viajar al pasado pero sólo hasta al momento en el que se construyó la máquina del tiempo).

"Nunca pienso en el futuro, siempre llega demasiado pronto."Albert Einstein

"End of transmission"

lunes, 10 de mayo de 2010

RAYOS COSMICOS:SUS CONSECUENCIAS

Como muchas veces lo ha hecho, la ciencia ficcion adelanta temas. En este caso en la serie "Los 4 fantasticos" veiamos como obtenian superpoderes una vez "bañados" en rayos cosmicos.
Sabemos que no dan poderes pero si que provocan mutaciones en los genes.

Existen serias evidencias de que los rayos cósmicos pueden tener incidencia en la vida y clima de la Tierra, y que también podrían propiciar mutaciones en los organismos.

Cuando el Sol está activo la Tierra recibe pocas emanaciones y cuando está quieto aumentan. Son partículas cargadas que ionizan a la atmósfera, y los iones en ella son nucleadores de nubes ( el satelite de la NASA STEREO, esta estudiando el caso, ver video adjunto).

De esa forma, si se modifica la cantidad de estas últimas en el ambiente puede incrementarse o disminuir la nubosidad, lo cual altera el calor. Esa "es una posibilidad por medio de la cual los rayos cósmicos podrían afectar al clima y la tecnología.

Es un mecanismo mediante el cual se podría perturbar directamente a los seres humanos. Hay otros que tienen que ver con embolias o ataques al corazón, pero aún no están bien determinados. Sin embargo, estos sí pueden incidir sobre la vida y clima de la Tierra.

Las radiaciones cósmicas de baja energía sirven para estudiar el Sol. Cuando hay grandes explosiones, que se pueden detectar por estas emanaciones, suceden diversos acontecimientos en la Tierra, como perturbaciones en las comunicaciones en celulares y de radio en general, que se deben, generalmente, a esos estallidos.
Lo primero que plantean al ser humano es una gran incógnita, sobre cómo es posible que haya partículas de esa energía que lleguen desde tiempos inmemoriales y que sigan haciéndolo todo el tiempo.

Al decir que el campo magnético es como una coraza contra los rayos cósmicos, apunto que "hay indicios serios de que algunas mutaciones se pueden generar por ellos". Empero, son la única información material del universo, al ser partículas elementales. Más de 90 por ciento son núcleos de hidrógeno o protones.
Además, hay pruebas de que este bombardeo viene desde hace decenas de miles de años, quizá desde el nacimiento del Sol, y ademas provienen de objetos astrofísicos desde el origen del cosmos.

El Sol, como cualquier estrella normal que cohabita en el universo, no sólo irradia su luz, sino que también emite una gama de radiaciones a las cuales llamamos «rayos cósmicos solares» o «partículas energéticas solares».

Los rayos cósmicos –que fundamentalmente son partículas– comportan una variedad de formas, de tamaños, de velocidades, y de energías. El más energético, llamado «rayo cósmico de ultra alta energía», se mueve casi a la velocidad de la luz y tiene más energía que una pelota de fútbol en juego. Pero, además, toda esa tremenda energía proviene de una partícula que tiene un tamaño atómico. Por otra parte, la rapidez con que se mueven esas partículas sea, quizás, la causa por la cual su origen siga siendo un misterio importante en la astrofísica.

Los rayos cósmicos son esencialmente partículas de una extrema rapidez en sus movimientos en el espacio. Una gran parte de ellas toman la forma de electrones, de protones, de neutrinos, o de núcleos atómicos (átomos sin los electrones) por ejemplo el carbón o el hierro.
En gran medida, los rayos cósmicos más comunes tienen bajas energías, y son generados por el Sol.

El Sol al margen de las emisiones electromagnéticas que continuamente nos llegan a la Tierra en tipo de luz, también emite partículas, algunas en forma continua –lo que se ha llamado el «viento solar»– y otras formas esporádicas y explosivas; estas últimas son las partículas energéticas solares o rayos cósmicos solares. Estas partículas son generadas en los sucesos de llamaradas solares, en eyecciones emitidas por la corona, u otros acontecimientos que suelen suceder en el mismo.

El Sol es la mayor fuente energética del sistema solar. Su energía la libera, como ya lo hemos mencionado, a través de dos formas de radiación: la electromagnética y los rayos cósmicos solares. A través de la radiación electromagnética irradia la luz que baña constantemente a la Tierra proporcionándole un flujo de energía de 1.367 W/m², la que se conoce como «la constante solar». Esta luz solar proviene esencialmente de la fotosfera, cuya estructura, observada con instrumentos sencillos aparece formada de gránulos brillantes, distribuidos por zonas oscuras (granulares), con dimensiones del orden de 100 Km. de diámetro, en un perpetuo movimiento turbulento, hasta el punto de que un gránulo posee una vida media de varios minutos.

El espesor de la fotosfera del Sol es del orden de unos 400 Km, lo que implica que, a causa de la elevada opacidad de los gases ionizados que comporta el astro, la radiación emitida por las capas inferiores a 400 Km. es completamente absorbida por las capas más próximas y, por tanto, no es observable. Sin embargo, la fuerza de la emisión solar es tal que en la Tierra se perciben aún 2 cal/min/cm².

En general, los rayos cósmicos que llegan hacia el sistema solar son afectados por el campo magnético interplanetario alojado en el viento solar y, por consiguiente, tienen dificultades para alcanzar las zonas interiores del sistema planetario. Naves espaciales que se han aventurado en viajes hasta los límites del sistema solar han detectado que la intensidad de los rayos cósmicos galáctico se incrementa con la distancia al Sol. También se ha podido observar que mientras la actividad solar varía en los ciclos solares de once años, la intensidad de los rayos cósmicos que llegan a la Tierra sufre importantes variaciones, en correlación con el número de manchas solares.

"Cada día sabemos más y entendemos menos" Albert Einstein.


"End of transmission"




viernes, 7 de mayo de 2010

VIENTO SOLAR: NUEVO ANALISIS

El viento solar es más caliente de lo que debería estar, y durante décadas los investigadores han estado perplejos ante el origen desconocido de la energía que lo calienta. En un artículo publicado en Physical Review Letters, científicos de la NASA dicen que han encontrado una respuesta."La fuente de la energía es la turbulencia," dice el coautor Melvyn Goldstein, jefe del Geospace Physics Laboratory en la NASA's Goddard Space Flight Center, Greenbelt, Md.

"El Sol calienta el viento solar removiéndolo.Es algo así como agitar el café -- pero al revés. Cuando agitas tu café matinal, el café se enfría. Pero cuando el Sol revuelve el viento solar, este se calienta.Considera el café. Cuando lo agitas con una cuchara, el revolverlo produce vórtices y remolinos en el líquido. Los vórtices se fragmentan en otros más pequeños y más pequeños remolinos hasta que, en la más pequeña escala, el movimiento se disipa y la energía se vuelve calor. Porque la energía desciende en cascada de los grandes remolinos a los más pequeños, el proceso se llama una turbulencia en cascada.

Teóricamente, la turbulencia en cascada debería calentar el café. El café de verdad se enfría, sin embargo, porque el actor de removerlo trae café caliente del fondo de la taza en contacto con aire más frío de arriba. El aire frío absorbe el calor - tanto el calor del café como el añadido al agitarlo - y puedes tomar un sorbo sin quemarte.Pero no hay aire en el espacio, y ahí radica la diferencia entre el café y el viento solar.

El Sol agita el viento solar con rápidas ráfagas de gas que se escapan de los agujeros en la atmósfera del Sol. Esencialmente, el viento solar se agita a sí mismo. El agitado produce remolinos; los más grandes remolinos se convierten en otros más pequeños, produciendo una cascada de energía que termina por disiparse como calor. La temperatura se dispara y no hay aire frío para pararla.Hemos sospechado durante años que la turbulencia calienta el viento solar," dijo Fouad Sahraoui, autor principal del artículo y un visitante del Centre National de la Recherche Scientifique (CNRS) en Francia.
"Ahora estamos consiguiendo medidas detalladas del proceso en acción."La información clave vino de una serie de satélites Europeos conocidos como Cluster, lanzados en 2000 para estudiar la gigante burbuja de magnetismo que rodea la Tierra. La magnetosfera protege nuestro planeta de los vientos solares y los rayos cósmicos. Contiene el cinturón de radiación Van Allen, auroras, y el gigante eléctrico "ring currents" de asombroso poder. Cluster pasa mucho de su tiempo dentro de la magnetosfera, donde la sonda puede estudiar una amplia variedad de fenómenos en marcha allí.Un día en Marzo de 2006, los cuatro satélites tomaron una corta excursión fuera de la burbuja dentro del viento solar.
Durante tres horas, sus sensores hicieron rápidas mediciones de las ondas electromagnéticas y las turbulencias de los remolinos en un gas a un millón de kilómetros por hora pasando a través suyo.Entonces fue cuando hicimos el descubrimiento," dijo Goldstein. "La energía de la turbulencia estaba cayendo en cascada de estructuras grandes de unos 1.000.000 de kilómetros en tamaño hasta convertirse en estructuras tan pequeñas como 3 kilómetros. En el tramo final, la energía fue absorbida por los electrones en el viento solar."Sahraoui y Goldstein confirmarían sus hallazgos y renovarían los detalles enviando Cluster de vuelta al viento solar más de "tres afortunadas horas."
Pero los resultados básicos parecían suficientemente sólidos: Las turbulencias elevaban la temperatura de los vientos solares cerca de la Tierra desde diez mil gratos (el valor esperado por los expertos) a cientos de miles o más.Goldstein dijo que tales turbulencias calentando probablemente ocurren en muchas otras situaciones astrofísicas, desde vientos estelares a magnetosferas planetarias hasta agujeros negros.
Hay incluso una aplicación en la Tierra: reactores de fusión nuclear. Las turbulencias dentro de cámaras experimentales de fusión puede producir inestabilidades que destruyan el confinamiento del plasma de fusión."El viento solar es un laboratorio natural para comprender esta física," dijo Sahraoui, "y estamos planeando más observaciones para ver como de común el fenómeno debería ser."
"El sol nos envia su aliento....., en forma de viento"
"End of transmission"


MANCHAS SOLARES: INVESTIGACION

En un importante avance que ayudará los científicos a desentrañar misterios del Sol y su impacto sobre la Tierra, científicos han creado el primer modelo por ordenador exhaustivo de manchas solares. La investigación fue financiada por la National Science Foundation (NSF) el año pasado.

Las simulaciones de altas resoluciones de manchas solares abren caminos a los científicos para aprender más sobre las misteriosas zonas oscuras sobre la superficie del Sol, estudiadas primero por Galileo. Las manchas solares están asociadas con masivas expulsiones de plasma cargado que pueden causar tormentas geomagnéticas e interferir las comunicaciones y los sistemas de navegación ( como fue el caso reciente del satelite Galaxy 15 que literalmente fue freido por la tormenta de iones).


Están conectadas a variaciones en el rendimiento solar que puede afectar el tiempo en la Tierra y extiende una sutil influencia sobre los climas."Entendiendo la complejidad en el campo magnético solar es clave para anticipar el 'tiempo espacial'," dijo Richard Behnke de NSF's Division of Atmospheric Sciences. "Si tenemos un modelo de mancha solar, deberíamos ser capaces de predecirlas y estar mejor preparados para las potenciales serias consecuencias aquí en la Tierra de estas violentas tormentas en el Sol.


"Los científicos en el National Center for Atmospheric Research (NCAR) in Boulder, Colo., colaboraron con colegas en el Max Planck Institute for Solar System Research (MPS) en Alemania, armando en un ordenador código que había sido creado en la University of Chicago."Esta es la primera vez que tenemos un modelo de una completa mancha solar," dijo el autor del informe Matthias Rempel, un científico en la NCAR's High Altitude Observatory."Si quieres entender todos los implicados en el sistema atmosférico de la Tierra, tienes que entender como las manchas solares emergen y evolucionan.


Nuestras simulaciones avanzarán la investigación del funcionamiento interno del Sol así como las conexiones entre el rendimiento solar y la atmósfera de la Tierra." Desde que los flujos hacia el exterior desde el centro de las manchas solares fueron descubiertos hace 100 años, los científicos han trabajado para explicar la compleja estructura de las manchas solares, el número de las cuales llegan al cénit y menguan durante el ciclo solar de 11 años.

Las manchas solares se acompañan de intensa actividad magnética que está asociada con las erupciones solares y masivas expulsiones de plasma que puede sacudir la atmósfera de la Tierra. El daño resultante a las redes de alimentación, en satélites y otros sistemas tecnológicos sensibles tienen un coste económico en un cada vez mayor número de industrias.


Crear tal detallada simulación no habría sido posible ni siquiera hace unos pocos años, no antes de la última generación de superordenadores y una creciente red de instrumentos para observar el Sol. Los nuevos modelos de ordenador capturan pares de manchas solares con polaridad opuesta. En asombroso detalle, revelan la región central oscura, o umbra, con puntos más brillantes, también telarañas de alargados y estrechos filamentos con flujo de masa saliendo de puntos en la región en penumbra del exterior.

También capturan los flujos y movimientos de energía debajo de las manchas solares, y que no son directamente detectables por instrumentos. Los modelos sugieren que el campo magnético dentro de las manchas solares necesitan estar inclinados en ciertas direcciones para crear tales complejas estructuras.

Los autores concluyen que hay una explicación física unificada para la estructura de las manchas solares en umbra y penumbra que es la consecuencia de convección en un campo magnético con variantes propiedades.


Las simulaciones pueden ayudar a los científicos a descifrar las misteriosas, fuerzas por debajo de la superficie del Sol que causan las manchas solares. Tal trabajo debería llevar a un mejorado entendimiento de variaciones en el rendimiento solar y su impacto en la Tierra.Para crear las simulaciones, el equipo de investigación diseñó un dominio virtual de tres dimensiones, midiendo unos 31,000 millas por 62,000 millas, y aproximadamente 3,700 millas en profundidad -- un espacio tan largo como ocho veces el diámetro de la Tierra, y tan profundo como el radio de la Tierra.


Los científicos luego usaron una serie de ecuaciones envueltas en leyes fundamentales físicas de transferencia de energía, dinámica de fluidos, inducción magnética, retroalimentación, y otros fenómenos para simular manchas solares dinámicas en 1,8 billones de puntos de red dentro del dominio, cada uno espaciado unas 10 a 20 millas entre ellos. Solventaron la ecuación sobre el nuevo superordenador de NCAR, una máquina de IBM que puede realizar 76 billones de cálculos por segundo. Se recurrió a observaciones detalladas en aumento de una red de instrumentos tanto terrestres como espaciales para verificar que los modelos capturaron manchas solares realistas.


Los nuevos modelos son de lejos más detallados y realísticos que anteriores simulaciones que fallaron en capturar la complejidad de la región exterior en penumbra.Los investigadores avisaron, sin embargo, que incluso su nuevo modelo no captura perfectamente la longitud de los filamentos en partes de la penumbra. Ellos pueden redefinir el modelo colocando la red de puntos más cercanos, pero eso necesitaría más capacidad de procesado que la actualmente disponible. "Avances en la capacidad de los superordenadores están permitiéndonos acercarnos a algunos de los más fundamentales procesos del Sol," dijo Michael Knölker, director del NCAR High Altitude Observatory y coautor del artículo. "Con esta simulación avanzada, un amplio conjunto de ideas físicas están surgiendo que los observadores han asociado con la apariencia, formación, dinámica y decaimiento de las manchas solares en la superficie del Sol.


" El sol no se ha puesto aún por última vez. "

Podemos seguir investigando.


"End of transmission"





TORMENTAS SOLARES Y SATELITES

La primera victima de la tormenta solar mas importante de este año fue un satélite de telecomunicaciones, el Galaxy 15, ha sufrido un percance hasta ahora desconocido en el ambito espacial: esta totalmente descontrolado, no responde a las órdenes que se le envían desde tierra y ha empezado a desplazarse desde su lugar asignado en el espacio, pero sus antenas y repetidores siguen funcionando. Es lo que se llama un satélite zombi, o zombisat como dicen los ingenieros, y supone un serio problema para un satélite vecino, el AMC-11, que opera en la misma banda de frecuencias y que puede sufrir graves interferencias, lo que afectaría al servicio a sus clientes.
El control del Galaxy 15 se perdió el pasado 5 de abril y los expertos le han enviado ya casi 200.000 comandos sin obtener respuesta. El lunes pasado se hizo el último intento de recuperar su control mandándole órdenes a gritos, es decir emisiones con alta potencia, durante media hora, pero no sirvió de nada. Intelsat, la empresa propietaria del artefacto, está buscando soluciones contrarreloj en colaboración con su competidora SES, dueña del AMC-11.



Estos satélites están en órbita a 36.000 kilómetros de altura y no hay riesgo de que caigan a la Tierra en varias decenas de años, pero los problemas comerciales asociados a un incidente así no son en absoluto despreciables.


El espacio es muy grande, pero en determinadas órbitas especialmente útiles también hay muchos artefactos y los percances son cada vez menos raros. El Galaxy15, como decenas de satélites de telecomunicaciones, está en una órbita especial, denominada geoestacionaria. Fue el ingeniero y novelista Arthur C. Clarke el que se dio cuenta, hace más de medio siglo, que un cuerpo en órbita de la Tierra, a 36.000 kilómetros de altura sobre el ecuador, gira alrededor del planeta a una velocidad acompasada con la rotación del mismo; así el satélite está aparentemente fijo en el cielo, pudiendo actuar como un repetidor de telecomunicaciones que cubre siempre el mismo territorio. Es tal la utilidad de esta órbita geoestacionaria que está repartida para su utilización por los satélites.

El Galaxy 15, construido por la empresa estadounidense Orbital Sciences Corporation, tiene asignada una zona a 133 grados Oeste, pero al convertirse en un zombisat ha empezado a desplazarse -siempre con los repetidores funcionando- y se encamina hacia la posición de 131 grados Oeste, donde está el AMC-11. Los ingenieros calculan que entrará en territorio del vecino el 23 de mayo y no saldrá hasta el 7 de junio. En esos días se pueden producir interferencias entre ambos que afecten seriamente a los clientes del satélite operativo, sobre todo empresas de medios de comunicación, informa Spacecom.


Para mantener el servicio contratado con el Galaxy-15, Intelsat ha desplazado hasta la posición de 133 Oeste otro satélite suyo, mientras que SES esta planeando alejar el suyo durante los días críticos al tiempo que diseña estrategias para garantizar el servicio a sus clientes si el AMS-11 se ve afectado por el zombisat.
Después de la crítica invasión de la parcela orbital del vecino, el Galaxy-15 entrará en zonas asignadas a otros satélites, pero son de su misma compañía: los Galaxy-13, Galaxy-14 y Galaxy-18.
El satélite averiado, de dos toneladas, lleva 24 transpondedores (receptores-emisores); fue lanzado al espacio en un cohete europeo Ariane-5 el octubre de 2005 y estaba diseñado para funcionar 15 años. La empresa Orbital cree que el fallo que ha provocado la pérdida de control pudo deberse a una tormenta solar registrada a principios de abril con una intensidad en el flujo de iones ( ver esquema siguiente )





Dado que este tipo de percance no se había producido hasta ahora, insisten las empresas espaciales, hay incertidumbre acerca de lo que puede pasar en los próximos meses con el Galaxy-15. Los responsables no planean hacer mas llamadas de alta potencia por temor a que el remedio sea peor que la enfermedad, es decir, que esas llamadas produzcan interferencias en los satélites vecinos. Los intentos de enviar al zombisat señales diseñadas para estropearlo del todo no han tenido éxito.

Llegará un momento en que el satélite perderá su orientación correcta, sus paneles solares dejarán de captar la radiación solar, se agotarán las baterías y se apagará solo. Según los cálculos, este apagado por agotamiento podría producirse hacia finales de julio.

Después, los expertos explican que se desplazará hacia una de las dos zonas orbitales denominadas pozos gravitatorios. Responden a perturbaciones del campo gravitatorio terrestre y los satélites no operativos tienden a concentrarse en ellos. Se calcula que 150 y 200 de estos cadáveres espaciales oscilando en los pozos gravitatorios (uno a 105 grados oeste y otro a 75 grados Este, informa Spacecom). Los operadores de artefactos espaciales deberían seguir la recomendación de aparcar sus satélites, cuando están en las últimas, en una órbita cementerio, unos 300 kilómetros más alta que la geoestacionaria en uso, de manera que no se conviertan en basura espacial para los satélites activos. Allí pueden permanecer hasta cien años antes de empezar a caer. Pero a veces los aparatos se estropean antes de poder ser dirigidos al cementerio espacial y otras veces no se cumple esa recomendación.

"Las ideas son en el hombre con creatividad, especies de satélites que no se apartan de él pues su iniciativa e inventiva es la gravedad que las hace orbitar”



"End of transmission"