_____________________________________________

miércoles, 30 de marzo de 2011

MAS ALLA DE LA INCERTIDUMBRE

Científicos europeos, liderados desde el Instituto de Ciencias Fotónicas (ICFO), han detectado por primera vez señales magnéticas ultradébiles por encima del ‘límite de Heisenberg’, una barrera cuántica fundamental e infranqueable hasta ahora.
El hallazgo podrá mejorar la sensibilidad de instrumentos como los que se usan en las prospecciones geológicas, la navegación por satélite o el diagnóstico por imagen en medicina. “Hemos demostrado experimentalmente la superación del ‘límite de Heisenberg’, inventando una medida basada en la interacción de partículas”, explica Mario Napolitano, investigador del Instituto de Ciencias Fotónicas (ICFO, adscrito a la Universidad Politécnica de Cataluña) y autor principal del estudio que publica Nature.
Hasta ahora los científicos pensaban que la precisión de cualquier medida estaba delimitada por ese límite.

Se trata de una consecuencia del ‘principio de incertidumbre’ planteado por el alemán Werner Heisenberg (indica que si se conoce la ubicación exacta de un objeto tan pequeño como un átomo, no se puede saber hacia dónde se dirige). Ahora, los científicos han detectado por primera vez señales magnéticas ultradébiles por encima del ‘límite de Heisenberg’, “un paso adelante en la comprensión de algo fundamental para la física, además de extender la frontera entre lo que podemos saber a través de una medida y lo que será inaccesible para siempre”, según Napolitano.
Para realizar el estudio, los expertos han utilizado un interferómetro (un instrumento que usa la interferencia de las ondas de luz para medir longitudes de onda) con luz láser polarizada y átomos de rubidio. Con este mecanismo han detectado, a tiempo real, los campos magnéticos producidos en el corazón y en el cerebro.

El investigador aclara: “El problema nace al aplicar el principio de incertidumbre a un sistema hecho con muchas partículas, el instrumento con el que se hacen las medidas, para establecer el límite de su sensibilidad. Si todas las partículas actúan de forma independiente, la sensibilidad está delimitada por este límite. Si existe interacción, el límite se extiende, y es lo que hemos demostrado con nuestro trabajo”.
El hallazgo abre un abanico de aplicaciones en campos muy diferentes, basados en la medida de campos magnéticos muy débiles (magnetometría) y la obtención de instrumentos mucho más sensibles. Los autores confían en que el avance tenga buenos resultados en la diagnosis de desórdenes del corazón y sirva para desvelar nuevos datos sobre el comportamiento del cerebro. “A largo plazo, el descubrimiento puede mejorar la resonancia magnética en medicina, la búsqueda de ondas gravitaciones en astronomía y la navegación por satélite”, subraya Napolitano. “Los interferómetros (como los de los relojes atómicos que hacen posible los sistemas GPS y Galileo, o los ópticos -LIGO, VIRGO, GEO- que revelan las ondas gravitacionales) podrían funcionar mejor utilizando las interacción entre partículas, como hemos demostrado”, añade el científico.

"La incertidumbre es una margarita cuyos petalos no se terminan jamás de deshojar". Mario Vargas Llosa

"End of transmission"




miércoles, 23 de marzo de 2011

RELATIVIDAD ESPECIAL DOBLE (DSR)


La relatividad general, la teoría de Einstein de la gravedad, nos da una base útil para matemáticamente modelar el universo a gran escala -, mientras que la teoría cuántica nos da una base útil para el modelado de la física de las partículas subatómicas y la probabilidad de pequeña escala, de la física de alta densidad de energía de los inicios del universo - nanosegundos después del Big Bang – en la cuál la relatividad general sólo la modela como una singularidad y no tiene nada más que decir sobre el asunto. Las teorías de la gravedad cuántica pueden tener más que decir, al extender la relatividad general dentro de una estructura cuantizada del espacio-tiempo, puede ser que nosotros podamos salvar la brecha existente entre la física de gran escala y de pequeña escala, al utilizar por ejemplo la Relatividad Especial Doble o Deformada (DSR). En la relatividad especial convencional, dos diferentes marcos inerciales de referencia pueden medir la velocidad del mismo objeto diferentemente. Por lo tanto, si usted está en un tren y lanza una pelota de tenis hacia delante de usted podría medir a ella moviéndose a 10 kilómetros por hora. Sin embargo, otra persona de pie en el andén de la estación de tren observa al tren pasar a 60 kilómetros por hora, midiéndo la velocidad de la bola a 60 + 10 - es decir, 70 kilómetros por hora y ambos están en lo correcto.. Sin embargo, como Einstein señaló, al hacer el mismo experimento pero con usted sosteniéndo una antorcha que emita un brillante rayo, en lugar de lanzar una pelota, hacia delante del tren – tanto usted en el tren como la persona en la plataforma miden la velocidad del rayo de la antorcha como la velocidad de la luz – sin afectar los adicionales 60 kilómetros por hora de la velocidad del tren – y también ambos están en lo correcto. Para la persona en la plataforma, las componentes de la velocidad (la distancia y el tiempo) cambian en el tren así que las distancias son contraídas y el tiempo dilatado (es decir, corren más lento los relojes). Y por la matemática de las transformaciones de Lorenz , estos efectos se incrementan a medida que el tren va más rápido -. También resulta que la masa de los objetos en el tren aumenta, y por eso alguién se pudiera preguntar si el tren no se podría convertir en un agujero negro en la medida de que alcance el 99.9999 por ciento de la velocidad de la luz(ya que además de aumentar su masa disminuye su volumen vía la contracción de longitud)? Ahora, la relatividad especial doble, propone que no sólo es la velocidad de la luz la que siempre permanece igual independientemente de su marco de referencia, sino también las unidades de Planck de la masa y la energía son siempre las mismas. Esto significa que los efectos relativistas (como el de la masa que parece aumentar en el tren) no se producen en la (muy pequeña)escala de Planck - aunque a mayor escala, la relatividad especial doble debería proporcionar resultados indistinguible de la convencional relatividad especial-. La relatividad especial doble también puede ser generalizada hacia una teoría de la gravedad cuántica –la cuál , cuando sea extendida hasta la escala de Planck, debería obtener resultados indistinguible de la relatividad general. Resulta que en la escala de Planck e = m(en unidades de Planck), incluso aunque en las macro- escalas sea e=mc2. - Y en la escala de Planck, una masa de Planck equivale a 2.17645 × 10-8 kg supuestamente la masa de un huevo de pulga - y tiene un radio de Schwarzschild de una longitud de Planck - lo que significa que si esta masa se comprime en un volumen tan pequeño, se convertiría en un agujero negro muy pequeño que contiene una unidad de energía de Planck. Para decirlo de otra manera, en la escala de Planck, la gravedad se convierte en una fuerza significativa en la física cuántica Aunque realmente, todo lo que estamos diciendo es que hay una unidad de Planck de la fuerza gravitacional entre dos masas de Planck, cuando están separadas por una longitud de Planck -. Y por cierto, una longitud de Planck es la distancia que la luz se mueve dentro de una unidad de tiempo de Planck !. Y dado que una unidad de energía de Planck (1.22×1019 GeV) se considera la energía máxima de las partículas - es tentador considerar que esto representa las condiciones previstas en la época de Planck , siendo esta una muy temprana etapa del Big Bang. Todo esto suena muy emocionante, pero esta línea de pensamiento ha sido criticada por ser sólo un truco para hacer mejor el trabajo de matemáticas, mediante la eliminación de información importante sobre los sistemas físicos bajo consideración. También al riesgo de socavar los principios fundamentales de la relatividad convencional ya que, como el estudio de abajo señala, una longitud de Planck se puede considerar como una invariable constante independiente del marco de referencia de un observador mientras la velocidad de la luz se vuelva variable a densidades de energía muy altas. Sin embargo, ya que incluso el Gran Colisionador de Hadrones no se espera que produzca evidencia directa de lo que puede o no puede suceder en la escala de Planck - por ahora, hacer el mejor trabajo matemático parece ser el mejor camino a seguir-.

"Cuando las leyes de la matemática se refieren a la realidad, no son ciertas; cuando son ciertas, no se refieren a la realidad". Albert Einstein


"End of transmission"

lunes, 21 de marzo de 2011

LHC SERA COMO EL TUNEL DEL TIEMPO ?







En la ficción de El túnel del tiempo (serie de TV de 1967), la máquina está localizada en un lugar subterráneo de Arizona y se trataba de un proyecto secreto del gobierno. El Gran Colisionador de Hadrones o LHC (acelerador y colisionador de partículas del CERN situado en Ginebra) tambien esta construido en un lugar subterraneo, ( no es algo tan secreto ? ) pero podría convertirse en la primera máquina capaz de hacer que la materia viaje en el tiempo. Esto al menos es lo que sugiere una teoría creada por los físicos Tom Weiler y Chui Man Ho, de la Universidad Vanderbilt de Estados Unidos, que “no viola ninguna ley de la física”, según los propios investigadores.


Uno de los principales objetivos del LHC es encontrar una escurridiza partícula llamada bosón de Higgs, que ha sido predicha por el modelo estándar de la física de partículas y utilizada por los científicos para explicar por qué otras partículas subatómicas como los protones, los neutrones o los electrones tienen masa. Weiler y Ho creen que si el LHC lograse producir el bosón de Higgs, al mismo tiempo éste daría lugar a una segunda partícula denominada Higgs singlet. Según la teoría de los físicos, esta nueva partícula tendría la capacidad de pasar a una dimensión extra, a una quinta dimensión, donde se podría mover hacia el pasado o hacia el futuro. En un comunicado emitido por la Universidad Vanderbilt, Weiler explica que uno de los atractivos de dicha teoría es que “elude todas las grandes paradojas” que se derivan de la posibilidad de viajar en el tiempo. La razón, según él, sería que “el viaje en el tiempo estaría limitado a estas partículas en concreto, y que no sería posible para un ser humano”. De esta forma se evitaría, por ejemplo, la llamada paradoja del abuelo, que señala que si una persona realiza un viaje a través del tiempo y mata al padre de su padre o de su madre (abuelo del viajero), antes de que éste conozca a su abuela y ambos puedan concebir, entonces, el padre o la madre del viajero del tiempo y el propio viajero nunca llegarían a ser concebidos, de tal manera que el viajero no habría podido ir al pasado. Al no viajar al pasado, su abuelo entonces no sería asesinado, por lo que el hipotético viajero sí habría sido concebido; entonces sí habría podido viajar al pasado y asesinar a su abuelo, pero no sería concebido… y así indefinidamente. Sin embargo, según Weiler: “Si los científicos pudieran controlar la producción de Higgs singlets, sí serían capaces de enviar mensajes del pasado hacia el futuro”. La prueba de la teoría de Weiler y Ho se dará si los físicos que controlan el LCH llegan a observar la aparición simultánea de partículas Higgs singlet y de sus productos de desintegración (núclidos o agrupaciones de protones y neutrones que resultan de un proceso de desintegración). Esta situación, según los físicos de la Universidad Vanderbilt, demostraría que se habrían producido partículas que viajan a través del tiempo hacia el pasado, para aparecer antes de que se llevaran a cabo las colisiones que a su vez las produjeron. Este galimatías teórico está en realidad basado en una teoría anterior: la Teoría M, que fue desarrollada en los años 90 para tratar de abarcar las propiedades de todas las partículas subatómicas y fuerzas conocidas, incluida la gravedad. La Teoría M señala que existirían 10 u 11 dimensiones, en lugar de las cuatro dimensiones conocidas, y que nuestro universo sería como una “membrana” de cuatro dimensiones (una brana ) que flota en un espacio-tiempo multi-dimensional. Según esta perspectiva de la física, las piezas básicas de nuestro universo estarían permanentemente adheridas a la brana, por lo que no podrían viajar a otras dimensiones. Pero habría algunas excepciones. Algunos científicos han propuesto que la gravedad sería más débil que otras fuerzas fundamentales porque se propaga por otras dimensiones. Otra excepción posible sería la partícula Higgs singlet, que respondería a la gravedad, pero no a otras fuerzas básicas. Weiler comenzó a investigar en los viajes en el tiempo hace seis años, con la intención de explicar ciertas anomalías observadas en diversos experimentos realizados con neutrinos. Los neutrinos han sido apodados “partículas fantasmas” porque reaccionan de manera extraña con la materia ordinaria: trillones de neutrinos chocan cada segundo con nuestro cuerpo, pero no los notamos porque pasan con rapidez a través de él sin afectarnos. Weiler y sus colaboradores Heinrich Päs y Sandip Pakvasa, de la Universidad de Hawai, dieron con una explicación para estas anomalías, basándose en la existencia de una partícula hipotética denominada “neutrino estéril”. En teoría, los neutrinos estériles serían incluso menos detectables que los neutrinos corrientes porque interactúan sólo con la fuerza de la gravedad, es decir, no realizan ninguna de las interacciones fundamentales que contempla el Modelo estándar de la física de partículas. Además, según Weiler, Päs y Pakvasa, los neutrinos estériles viajarían a una velocidad mayor que la de la luz a través de “atajos” existentes entre las dimensiones extra. Según la Teoría de la relatividad general de Albert Einstein, existen ciertas condiciones en las que viajar más rápido que la luz es equivalente a viajar hacia atrás en el tiempo. Este aspecto de la Teoría de la relatividad es lo que llevó a los físicos al terreno especulativo de los viajes en el tiempo, y finalmente a Weiler a crear la teoría del Higgs singlet. En los últimos años, se han realizado diversos avances teóricos en lo que al viaje en el tiempo se refiere. En 2006, por, ejemplo, un físico de la Universidad de Connecticut, en Estados Unidos, publicó que había creado un prototipo de máquina del tiempo que utilizaba energía luminosa en forma de rayos láser para curvar el tiempo y así desplazarse por él. Por otra parte, en 2007, un equipo de científicos israelíes estableció un modelo teórico para el viaje en el tiempo, que demostraba que se podía generar un bucle espacio-temporal a partir únicamente de materia ordinaria y densidad de energía positiva. Por último, el año pasado, un físico del MIT ideó otro modelo teórico de viaje en el tiempo que resolvía el efecto paradójico de este tipo de viajes, gracias a ciertas propiedades de la física cuántica. "El instante es la continuidad del tiempo, pues une el tiempo pasado con el tiempo futuro". Aristóteles "End of transmission"

jueves, 17 de marzo de 2011

SUPERLUNA DE PERIGEO

Se estan dando noticias sensacionalistas acerca de que por la Super Luna se ha producido y se produciran devastadores sismos e inundaciones en la Tierra.
Eso no es cierto. Los que publican esas noticias deberian primero recordar lo que aprendieron en Ciencias Naturales ( si es que lo aprendieron) y si no, leer las publicaciones cientificas antes de publicar tonterias.
Hasta las prestigiosas cadenas de television citan varias fuentes explicando lo que pasa y va a pasar. En fin hoy con las sociedades tan light se vende cualquier cosa !!!! (ver video ).

Las lunas de perigeo no ocasionan desastres naturales, en contra de lo que afirman algunos articulos que circulan por internet. La “super luna” de marzo de 1993, por ejemplo, pasó sin incidentes, y una casi super luna en diciembre de 2008 también probó ser inocua.
El 19 de marzo una luna llena de raro tamaño y belleza se levantará por el este al atardecer. Es una super “Luna de perigeo”, la mayor en casi 20 años.
“La última luna llena tan grande y próxima a la Tierra ocurrió en marzo de 1993”, declara Geoff Chester, del Observatorio Naval de EEUU en Washington DC.

Las lunas llenas varían de tamaño debido al perfil oval de la órbita de la Luna. Es una elipse con un lado (el perigeo) unos 50 mil km más cerca de la Tierra que el otro (apogeo). Las lunas llenas cercanas al perigeo son alrededor de un 14% mayores y un 30% más brillantes que las lunas menores que ocurren en el apogeo de la órbita lunar.


La luna llena del 19 de marzo se produce a menos de una hora del perigeo, una coincidencia casi perfecta que ocurre sólo cada aproximadamente 18 años”, añade Chester.
Las lunas de perigeo conllevan unas mareas extra altas, aunque según la NOAA no hay por ello que preocuparse. En muchos lugares la gravedad lunar en el perigeo tira de las aguas sólo unos pocos centímetros más de lo normal. La geografía local puede amplificar el efecto hasta unos 15 cm, lo que no es exactamente una gran inundación.
La Luna se ve extra-grande cuando se aprecia a través de objetos del horizonte; es lo que se denomina “la ilusión lunar” , es un 14% más grande de lo normal, pero ¿como puede uno darse cuenta de la diferencia?.
No hay reglas flotando en el cielo para medir los diametros lunares. Colgando alta sobre nuestras cabezas, sin puntos de referencia que proporcionen una escala, una luna llena se parece mucho a cualquier otra. El mejor momento para apreciarlo es cuando la Luna está cerca del horizonte. Es entonces cuando la ilusión se mezcla con la realidad para producir imágenes verdaderamente impactantes. Por razones no totalmente comprendidas por los astrónomos o los psicólogos, las lunas bajas parecen antinaturalmente grandes cuando se ven a traves de árboles, edificios u otros objetos en primer plano. ¿Por qué no dejar este 19 de marzo a la “ilusión lunar” amplificar una luna llena que ya es extra-grande de partida? El hinchado orbe naciendo por el este al atardecer puede parecer tan cercano que casi se podrá alcanzar y tocar. Pero no se molesten, incluso una super luna de perigeo está a 356 577 km de la Tierra.

"La ignorancia es la noche de la mente: pero una noche sin luna y sin estrellas". Confucio

"End of transmission"

lunes, 14 de marzo de 2011

CONSECUENCIAS GEOFISICAS DEL TERREMOTO EN JAPON

Imágenes satelitales tomadas por la Nasa antes y después del terremoto, considerado en el peor de la historia nipona, indican que la isla se habría desplazado 2,4 metros. Con esto también insisten los cálculos del Servicio Geológico de Estados Unidos (Usgs).
"En este momento sabemos que una estación GPS se desplazó 2,4 metros y hemos visto un mapa de la Autoridad en Información Geoespacial (Gsi) en Japón que muestra el patrón de cambio en una gran superficie y concuerda con el cambio de la masa terrestre", señaló a la cadena de televisión estadounidense CNN el geofísico de Usgs, Kenneth Hudnut.

La Nasa publicó dos imágenes que ilustran el desplazamiento. Las fotografías fueron tomadas por un espectroradiómetro de imágenes de su satélite Terra y muestran el litoral oriental de la isla, sobre todo la región de Sendai, el epicentro de la tragedia. Las imágenes ponen en evidencia los cambios producidos por el sismo.
En tanto, también se estima que el terremoto podría haber desplazado 10 centímetros el eje de la Tierra. Esta versión fue lanzada por el instituto Nacional de Geofísica y Vulcanología de Italia (Ingv).
"El sismo fue más débil que el de Sumatra (ocurrido en 2004), pero se produjo en una latitud que aseguró el mayor efecto posible", había comentado Giuseppe Bianco, director del Centro de Geodesia Espacial de la Agencia Espacial Italiana (Asi).

En este sentido, también se habló sobre la posibilidad de que se haya acortado la duración del día terrestre. Sobre este tema, Richard Gross, geofísico de la Nasa, explicó que el sismo provocó un aumento de velocidad en la rotación de la Tierra, por lo que los días comenzarían a tener 1,6 microsegundos menos (un micosegundo es la millonésima parte de un segundo).

El USGS indicó que a lo largo del miércoles pasado Japón sufrió cuatro grandes temblores al este de la costa de Honshu, la principal isla nipona. El día 9 se registró uno de magnitud 7.2 grados, seguido de tres de 6.1 durante la tarde y la noche.
Aunque Japón —situado sobre el Cinturón de Fuego del Pacífico– sufre un 20 por ciento de los terremotos que se registran en todo el mundo con una magnitud superior a 6 puntos, la cifra superó lo habitual en el país.

La dependencia estadunidense agregó que a lo largo de aquel miércoles también se registraron otros 22 movimientos sísmicos con una magnitud superior a 4.5 (13 de ellos superiores a 5). El jueves pasado hubo otros 10 temblores importantes (cinco de ellos superiores a la magnitud 5).
A modo de comparación: el pasado enero hubo 162 temblores superiores a 4 en todo el mes, pero sólo 12 con una magnitud superior a 5. La media de los últimos años es de 73 y nueve, respectivamente.

La Tierra ha temblado siempre, y en todas partes del mundo; la Tierra tiembla a diario y varias veces al día. Los sismógrafos detectan entre 18 mil y 24 mil movimientos sísmicos por año − 50 a 65 por día −. Sin embargo la actividad sísmica se incrementa y los científicos prevén que en los próximos 30 años habrá terremotos de más de 8 grados de intensidad. Las consecuencias de estos fenómenos son cada vez más devastadoras, entre otras causas, debido al aumento de la densidad de población en las zonas de alto riesgo.

El globo terráqueo está formado por capas concéntricas. La más superficial es la corteza cuyo espesor es de alrededor de 30 Km en los continentes y de 15 kilómetros en los océanos.
El límite inferior de la corteza se conoce como “Discontinuidad de Mohorovic”. Por debajo está el manto que se extiende hasta una profundidad de 2900 Km. El cascarón más externo de la Tierra se comporta como un cuerpo rígido. Esta porción tiene un espesor de aproximadamente 100 Km y forma la litosfera, constituida por la corteza y parte del manto que flota sobre el resto del manto. El comportamiento del manto, desde una perspectiva geológica, es similar al de un líquido.

El recubrimiento sólido no es continuo, sino que está partido en pedazos; a estas porciones se les llama placas. Estas placas están en contacto y se desplazan entre sí, con movimientos relativos. A veces se deslizan paralelamente sobre sus márgenes y otras veces una de las placas se sumerge bajo la otra, dando lugar al fenómeno de subducción. En este caso, una de las placas cabalga sobre la otra.

Las causas de dichos movimientos de las placas tectónicas son desconocidos al menos hasta ahora eso opinan los científicos , sin embargo nuevas corrientes de pensamiento han estudiado esta interacción , y han encontrado una relación entre las tormentas solares y su impacto magnético en el núcleo terrestre formado de hierro, que al agitarse por el golpe magnético de los rayos solares conmueve las mareas del magma terrestre, haciendo vibrar las placas tectónicas.

La litosfera muestra, en la actualidad, síntomas clásicos de la inestabilidad precedente al acercamiento de una catástrofe, es decir, un megaterremoto. El comportamiento sísmico observado a escala global implica un estado de criticalidad de la litosfera de la tierra en la pasada década .
Si observamos de nuevo las estadísticas de los últimos sismos podemos encontrar ya a primera vista una notable diferencia entre el número de sismos que ocurren durante los años de baja actividad solar frente a los sucedidos en los años de máxima actividad de nuestro sol. Por ejemplo, durante el final del ciclo solar 22 y comienzo del ciclo 23 –años de menor actividad solar– el número de sismos registrados fue de 107.498, mientras que durante la máxima actividad solar del ciclo 23, el número de temblores se incrementó a 138.926; exactamente un 29,24% superior.

Podemos ver con cierta claridad que la actividad solar influye de modo notorio en la actividad sísmica terrestre y más adelante veremos que existe una correlación significativa entre la actividad sísmica en la Tierra y el Sol.
Los terremotos y las llamaradas solares son fenómenos que implican emisiones enormes y rápidas de energía, caracterizados por una ocurrencia temporal compleja.
Analizando catálogos experimentales disponibles, se observa que los procesos estoclásticos, que son la base de estos fenómenos al parecer diversos, tienen características universales.
Ambos fenómenos exhiben las mismas distribuciones de tamaños, tiempos de inter-ocurrencia y agrupamiento temporal. La universalidad observada sugiere un acercamiento común a la interpretación de ambos fenómenos en términos de un mismo mecanismo físico de conducción.

Las llamaradas solares son explosiones altamente energéticas de las regiones activas del Sol que se manifiestan bajo la forma de flujos de radiación electromagnética, de partículas y flujos de plasma emitidos por fuertes y rizados campos magnéticos.
Recientes estudios han mostrado que las llamaradas solares también afectan al interior del Sol, generando ondas sísmicas similares a terremotos . Los jets de las llamaradas se presentan en las regiones solares activas donde el flujo magnético emerge del interior solar y obra recíprocamente con el campo magnético ambiente. Estas altas emisiones de partículas cargadas y flujos de plasma magnetizado son transferidos al viento solar.

El movimiento de este flujo de plasma que es el viento solar, tiene un carácter caótico e intermitente, y fuerte dependencia de la actividad solar.
Este proceso de transferencia de energía entre el plasma magnetizado y el viento solar, sigue siendo una paradoja compleja, pero a través de las simulaciones emprendidas a tal fin, podemos entender la supersónica y fuerte magnetizada magnetohidrodinámica del viento solar. Una de las características comprensibles de esta magnetohidrodinámica es su repercusión en las fluctuaciones de la densidad del viento solar provocadas por el plasma magnetizado de las eyecciones solares .

Disponemos en la actualidad de suficientes estudios científicos y sistemas tecnológicos que podrían ayudar a los gobiernos en la prevención sísmica.

"¿Qué puede haber imprevisto para el que nada ha previsto?" Paul Ambroise Valéry

"End of transmission"

viernes, 11 de marzo de 2011

TERREMOTO EN JAPON Y ACTIVIDAD SOLAR


En este blog habia escrito el dia 28 de Febrero pasado el riesgo que podian producir las prominencias solares, poco después de que la NASA captara una monstruosa llamarada solar el pasaso 24 de febrero, en luz ultravioleta por el satélite de la NASA Solar Dynamics Observatory (SDO).
Hoy se ha producido un terremoto espectacular de magnitud 8.9 con epicentro en el norte de Japón que está generando docenas de tsunamis por todo el Pacífico.

La alerta de tormentas magnéticas y eventos derivados de estas inestabilidades que se producirán en la Tierra ha sido lanzada por la comunidad científica.
La actividad solar nos demuestra que está alterando el medio ambiente y ejerce un gran dinamismo que lleva inexorablemente a lo que conocemos como “cambios climáticos”, solo basta ver las fotografías que cada tres horas se publican del disco solar y las perturbaciones magnéticas que emite hacia la tierra.

Los procesos de tipo viscoso plasmático del viento solar, someten a las placas tectónicas a fuertes compresiones y distensiones en mayor o menor medida dependiendo de la densidad y la temperatura de la magnetosfera, y se transmiten de unas zonas a otras a través del manto, provocando tensiones añadidas a la dinámica de las placas tectónicas disparando procesos sísmicos en las zonas estresadas. Estos efectos sobre la litosfera son de diferente intensidad en función de la posición de la Tierra en la órbita alrededor del Sol.

Al recibir estos bruscos cambios de presión, las capas de la corteza terrestre se comportan como una cama elástica flotando sobre el manto líquido y, al ser nuestro planeta como una pelota, la zona que recibe esta presión añadida se hunde y provoca la elevación de otras placas por transferencia de energía a través del manto, en un mecanismo flexible. Si alguna de estas zonas sísmicas se encuentra sobreexcitada, este movimiento provocará en un breve plazo un sismo de alta magnitud. Estos procesos de tipo viscoso impulsan flujos de plasma hacia la misma región en capas atmosféricas de baja latitud, que son atravesadas por líneas de campo magnético cerradas.

El mecanismo de “reconexión magnética” mantiene las líneas del campo magnético interplanetario y el campo magnético terrestre y así forman una única estructura y la configuración topológica de los campos magnéticos crean un estado de intercambio energético conocido como magnetosfera “abierta”.
Este proceso constituye un mecanismo primario de entrada de energía desde el viento solar a la magnetosfera e ionosfera terrestres. La reconexión magnética impulsa flujos de plasma a través de las líneas abiertas del campo en los casquetes polares y los lóbulos magnetosféricos hacia la región de la cola de la magnetósfera.

En ambos procesos los ciclos se completan por la convección dirigida hacia el exterior de la atmósfera en el interior de la magnetosfera , y hace que la Tierra se comporte como un emisor de pulsaciones, –púlsar– y en el que la fotosfera solar actúa como superficie responsiva reflejando estas pulsaciones dando lugar a la creación de nuevas trazas en la fotosfera y recomenzando nuevamente el ciclo actividad solar – ionosfera – magnetosfera – actividad sísmica – magnetosfera – ionosfera – actividad solar.

“Fuertes razones, hacen fuertes acciones.” William Shakespeare

"End of transmission"


miércoles, 9 de marzo de 2011

EL FIN DEL TRANSBORDADOR ESPACIAL


Hoy 9 de Marzo regresa la mision STS-133 del Transbordador Espacial Discovery, siendo este su ultimo vuelo al espacio programado por NASA.
"El transbordador ha volado en una forma rutinaria en los últimos 30 años y muchos estadounidenses no se dan cuenta de las contribuciones que ha hecho para toda la humanidad", dijo Thomas Candrea un oficial de la NASA de Asuntos Públicos.
"Cuando las lanzaderas dejar de volar, creo que los estadounidenses recordarán todas las tecnologías y los avances maravillosos que estas naves espaciales y el diverso grupo de personas que trabajaron en ellas, hicieron posible."

El tiempo dirá si el transbordador será recordado por sus defectos o si será recordado por permitir que astronautas de otros paises volaran, y por haber desplegado el Telescopio Espacial Hubble y los servicios que ha brindado para la Estación Espacial Internacional y todas otras cosas positivas que el transbordador ha hecho posible, ya que voló por primera vez en abril de 1981.

El número de naciones que han volado sus astronautas a bordo de la flota de transbordadores de la NASA es mucho más amplio que la mayoría piensa. Canada, Belgica, Francia, Alemania, Italia, los Países Bajos, España, Suiza, Israel, Japón, México, Rusia, Arabia Saudita y Ucrania, pueden dar fe de ello.

Cuando se trata de los vuelos espaciales, los medios de comunicación, los políticos y el público tienden a centrarse en quien fue "el primero."

Muchos apuntan al hecho de que la Unión Soviética fue el primero en enviar un satélite en órbita.
Sin embargo, la época de traslado en transbordadores se cierra, y no se ha hablado mucho, hasta ahora, de este importante programa espacial.

Más importante aún, el programa, en su conjunto, ha sido un motor muy poderoso para el cambio - tanto dentro de los EE.UU. como en el extranjero-.

La NASA tiene dos misiones mas del transbordador- Endeavour STS-134 de vuelo en Abril, y Atlantis STS-135 de vuelo en Junio.

"Todas las obras de arte deben empezar por el final". Edgar Allan Poe


"End of transmission"