_____________________________________________

viernes, 28 de febrero de 2014

BONANZA PLANETARIA



En la película "2001 Odisea del Espacio", el astronauta protagonista del final dice del Universo,
"Está lleno de estrellas", bueno parece que ahora después de un análisis detallado de posibles detecciones, los científicos de la misión Kepler de la NASA han ratificado el descubrimiento de 715 nuevos planetas en órbita a otras estrellas. Estos mundos recién verificados orbitan alrededor de 305 estrellas, demostrando que los sistemas planetarios múltiples similares a nuestro sistema solar son comunes en el universo, el cuál "Esta lleno de planetas".

Casi el 95 por ciento de esos planetas son más pequeños que Neptuno, el cual posee casi cuatro veces el tamaño de la Tierra. Esta nueva y prolífica adición al catálogo de mundos de fuera de nuestro sistema solar constituye un incremento significativo en el número de planetas conocidos de pequeño tamaño, más parecidos a la Tierra que los exoplanetas (planetas de fuera de nuestro sistema solar) previamente identificados. Para verificar la autenticidad de esta cantidad planetaria, un equipo investigador codirigido por Jack Lissauer, científico planetario en el Centro Ames de Investigación de la NASA, en Moffett Field, California, Estados Unidos, analizó estrellas con más de un planeta potencial, todos los cuales fueron detectados en los primeros dos años de observaciones del telescopio espacial Kepler, de mayo de 2009 a marzo de 2011.
Desde el descubrimiento verificado de los primeros exoplanetas, hace unas dos décadas, la verificación planeta a planeta ha sido un proceso laborioso. Ahora, los científicos disponen de una técnica estadística que puede ser aplicada a muchos planetas a un tiempo, cuando son encontrados en sistemas que albergan más de uno alrededor de la misma estrella.

Cuatro de esos planetas validados como tales tienen menos de 2,5 veces el tamaño de la Tierra, y orbitan en la zona habitable de su sol, definida ésta como el rango de distancia desde una estrella donde la temperatura superficial de un planeta en órbita puede ser adecuada para mantener líquida el agua, un ingrediente decisivo para la vida.
Uno de esos nuevos planetas en una zona orbital habitable, llamado Kepler-296f, orbita una estrella con la mitad de tamaño que nuestro Sol, y con un brillo un 5 por ciento del de éste. Kepler-296f duplica el tamaño de la Tierra, pero los científicos no saben si el planeta es un mundo gaseoso, con una envoltura gruesa de hidrógeno-helio, o si es un mundo con una superficie esencialmente líquida, o sea con un vasto océano, quizás muy profundo.
“Cuanto más exploramos, más rasgos encontramos entre las estrellas que nos resultan familiares porque nos recuerdan al hogar", subraya Jason Rowe, científico investigador en el Instituto SETI, en Mountain View, California, y codirector de la investigación.

Con esta nueva validación de nuevos planetas, la cantidad total de planetas descubiertos en firme fuera de nuestro sistema solar es ya de casi 1.700. Lanzado en marzo de 2009, el telescopio espacial Kepler constituye la primera misión de la NASA dedicada a encontrar planetas potencialmente habitables de tamaño similar al de la Tierra.

La Enciclopedia Galáctica que hablaba Carl Sagan en "Cosmos" ha comenzado a completarse.

Información adicional: http://www.nasa.gov/ames/kepler/nasas-kepler-mission-announces-a-planet-bonanza/ 

 "Hay más cosas en el cielo y en la tierra , que todas las que pueda soñar tu filosofía"  Hamlet

"End of transmission".








miércoles, 26 de febrero de 2014

AMBIGÜEDADES CUANTICAS



Hace 50 años, en 1964, el físico John Bell se enfrentó a la aparente disparidad entre física clásica y mecánica cuántica, diciendo que si el universo está basado en la física clásica, la medición de una partícula entrelazada no debería afectar a la medición de la otra, o sea que habría un límite en cómo de correlacionadas pueden estar dos partículas. Bell diseñó una fórmula matemática para esa situación con un límite.
Desde entonces, los físicos han examinado el teorema de Bell midiendo las propiedades de partículas entrelazadas cuánticamente en el laboratorio. En esencia, todos estos experimentos han mostrado que tales partículas están correlacionadas de una manera más fuerte de lo que se podría esperar bajo las leyes de la física clásica, hallazgos que apoyan a la mecánica cuántica en esa vertiente.
Sin embargo, los científicos han identificado también varias lagunas o ambigüedades en el teorema de Bell. Éstas sugieren que aunque los resultados de tales experimentos pueden parecer apoyar las predicciones de la mecánica cuántica, podrían en realidad reflejar “variables ocultas” desconocidas que proporcionarían la ilusión de un resultado cuántico, pudiéndose aún explicarse en términos clásicos.
Aunque se han cerrado ya dos lagunas principales, resta una tercera; los físicos se refieren a ella como “independencia de la configuración inicial”, o de forma más provocadora, “libre albedrío”. Esta laguna propone que los ajustes iniciales de un detector de partículas podrían “conspirar” con los eventos en el pasado causal compartido de los propios detectores para determinar qué propiedades de la partícula medir, un escenario que, aunque muy poco probable, implicaría que un físico realizando un experimento no tendría un libre albedrío completo a la hora de elegir la configuración inicial de cada detector. Tal escenario resultaría en mediciones sesgadas, lo que sugeriría que dos partículas están más correlacionadas de lo que realmente lo están, y dando más peso a la mecánica cuántica que a la física clásica.
David Kaiser y Andrew Friedman, del Instituto Tecnológico de Massachusetts (MIT) en Cambridge, y Jason Gallicchio de la Universidad de Chicago, ambas instituciones en Estados Unidos, han propuesto un experimento para cerrar esta tercera laguna mediante la determinación de la configuración inicial de un detector de partículas usando una de las luces más antiguas del universo: la de los distantes quásares, o núcleos galácticos extremadamente activos y brillantes, que se formaron miles de millones de años atrás.
Si bien la idea de usar luz de fuentes distantes como los quásares no es nueva, la investigación de Kaiser, Friedman y Gallicchio constituye el primer análisis detallado de cómo tal experimento podría ser llevado a la práctica, utilizando tecnología actual.

La idea, en esencia, es que si dos quásares en lados opuestos del cielo están lo bastante lejos el uno del otro, habrán permanecido fuera de todo contacto causal (no pueden haberse influido el uno al otro) desde el Big Bang, hace unos 14.000 millones de años, sin posibilidad de que algo se haya comunicado con ambos desde el inicio del universo, un escenario ideal para determinar la configuración inicial de cada detector de partículas.
Tal y como explica Kaiser, podría realizarse un experimento de la manera siguiente: Se preparara en un laboratorio un generador de partículas, como por ejemplo un átomo radiactivo que lanza parejas de partículas entrelazadas cuánticamente. Un detector mide una propiedad de la partícula A, mientras que otro detector hace lo mismo para la partícula B. Una fracción de segundo después de que las partículas sean generadas, pero justo antes de que los detectores sean configurados, los científicos utilizarán observaciones telescópicas de lejanos quásares para determinar qué propiedades medirá cada detector de su respectiva partícula. En otras palabras, el quásar A determina la configuración inicial para detectar la partícula A, y el quásar B la del detector para la partícula B.
Los investigadores razonan que dado que la configuración inicial de cada detector se halla determinada por fuentes que no han tenido contacto o compartido historia desde el inicio del universo, sería virtualmente imposible para ellos “conspirar” con nada en su pasado compartido para proporcionar una medición sesgada; el sistema experimental podría por tanto cerrar la laguna del “libre albedrío”. Si, después de múltiples mediciones con este sistema experimental, los científicos encuentran que las mediciones de las partículas están más correlacionadas de lo predicho por las leyes de la física clásica, entonces esto significaría que el universo debe estar basado en la mecánica cuántica, sólo es cuestión de esperar el final del experimento.


Información adicional: http://web.mit.edu/newsoffice/2014/closing-the-free-will-loophole-0220.html

"La pasión no sabe esperar. Lo trágico de los hombres estriba frecuentemente en no saber esperar". Friedrich Nietszche.

"End of transmission".







 
 

lunes, 24 de febrero de 2014

ANIVERSARIO DEL BIG BANG



Cuando en 1964 el astrónomo Robert Woodrow Wilson y el físico Arno Allan Penzias estaban probando un nuevo tipo de antena, apenas esperaban que su trabajo diera lugar a algunos de los descubrimientos más importantes de la cosmología moderna. Lo que comenzó como ruido molesto en sus mediciones resultó ser el zumbido de fondo del Universo temprano.
Ellos descubrieron una señal de microondas enterrada en sus datos, trataron de filtrar la señal, suponiendo que se trataba simplemente de ruido no deseado, pero esto resulto ser la señal de Radiación Cósmica de Microondas, descubrimiento con el cual más tarde, en 1978 ganaron el Premio Nobel.

Hoy 50 años después de ese descubrimiento, la Radiación Cósmica de Microondas es a menudo descrita como el "eco" del Big Bang, porque si el Universo tuvo un origen, debería haber dejado una huella del evento, al igual que el eco de un cañón representa una "huella" del sonido original. La diferencia es que en lugar de un eco audible, el Big Bang dejó detrás de sí una huella de calor a lo largo de todo el espacio.
Una vez que se entiende que el Universo tuvo un principio, los científicos comenzaron a preguntar "¿cómo llegó a existir, y que existía antes de él?"
La mayoría de los científicos ahora creen que la respuesta a la primera parte de la pregunta es que el Universo surgió a través de una singularidad, término que usan los físicos para describir un punto teórico con volumen cero y densidad infinita. Es un lugar en el que la densidad de materia y la curvatura del espacio se hacen infinitas. Creemos que existen escondidas discretamente en el interior del horizonte de un agujero negro.
Respecto a la segunda parte de la pregunta, en cuanto a lo que existía antes del Big Bang, ha desconcertado a los científicos. Por definición, nada existía antes del inicio, y esto ha planteado más preguntas que respuestas. Por ejemplo, si nada existía antes del Big Bang, ¿Qué y cómo se originó la singularidad?
Una vez que se originó (como sea que se haya originado), la singularidad comenzó a expandirse a través de un proceso llamado inflación, el Universo paso de ser una pequeña, densa, y muy caliente singularidad a la extensión inmensa que vemos hoy. Esta teoría que ahora se conoce como el Big Bang, un término acuñado por Sir Fred Hoyle, quien dicho sea de paso no creía en la Teoría, durante una emisión radial de la British Broadcasting Corporation (BBC) en 1950. 


Curiosamente, en realidad no había ningún tipo de explosión como su nombre indica, sino más bien la rápida expansión del espacio y el tiempo. Es como si estuviera inflando un globo, como se sopla aire en el interior del globo se expande hacia el exterior. Ahora se estima que el Universo tiene unos 13,8 mil millones de años. El Big Bang es la mejor explicación de la ciencia de cómo empezó el universo. Según la teoría, el universo comenzó mucho más caliente y más densa de lo que es hoy, se expandió y se enfrió con el tiempo. La otra pregunta que podemos hacer es: ¿Pudo haber vida inmediatamente después del Big Bang.?
Un astrofísico de la Universidad de Harvard, Abraham Loeb, ha llevado a cabo una investigación en la que se sugiere que 15 millones de años después del Big Bang el Universo habría tenido las condiciones adecuadas para la existencia de agua, un requisito para que la vida sea posible. "Todo el universo fue una vez una incubadora de vida", ha declarado a la revista 'Nature'.
En su trabajo, publicado en 'Arxiv.org', Loeb explica que, hoy en día, la temperatura del fondo cósmico de microondas, los restos del Big Bang, es muy fría (2,7ºKelvin), pero en sus inicios, el Universo habría estado más cerca de 300ºKelvin, lo que supone suficiente calor para sustentar vida si existiera un lugar propicio para que ésta apareciera.
En este sentido, el astrofísico ha señalado que en esa época es posible que existieran planetas rocosos en lugares donde la materia era excepcionalmente densa. Estas características propician la formación de estrellas masivas, de corta vida, que fueron enriqueciendo el cosmos de elementos pesados necesarios para la formación de estos planetas.

Sin embargo, este Universo que defiende Loeb apenas duraría 2 o 3 millones de años. En ese tiempo todos los planetas rocosos habrían sido capaces de mantener agua líquida, independientemente de su distancia con su estrella. "Al ser un espacio tan corto de tiempo la vida no pudo convertirse en un organismo complejo, así que estamos hablando solo de la presencia de microorganismos", ha explicado el científico.
'Nature' ha destacado que este trabajo desafía el principio antrópico, que establece que cualquier teoría válida sobre el universo tiene que ser consistente con la existencia del ser humano.

Sin embargo, durante la época habitable propuesta de Loeb, la materia era tan densa que incluso si la energía del vacío había sido un millón de veces más fuerte, no habría impedido la formación de estrellas y planetas rocosos y el surgimiento de la vida. Por lo tanto, dice Loeb, los partidarios del principio antrópico no pueden afirmar que el pequeño valor observado ahora es el único que pueda ser observado por los seres vivos.

"El mundo es necesariamente como es porque hay seres que se preguntan por qué es así."

"End of transmission".











viernes, 21 de febrero de 2014

ANOMALIAS DEL CAMPO MAGNETICO




Recibimos el año 2014 sufriendo temperaturas extremas tanto en el Hemisferio Sur como en el del Norte. ¿Avanza con fuerza el cambio climático a la inversa del campo magnético de la Tierra?.

La fuerza del campo magnético terrestre ha disminuido un 15% en los últimos 200 años, de seguir la progresión actual, el campo magnético terrestre podría desaparecer dentro de 1.500 o 2.000 años, (por lo que deberían pasar muchos siglos antes de que vuelva a producirse una inversión del campo). Se considera que la disminución de la fuerza del campo magnético, que se mide desde 1845, puede ser sólo una fase de muchos cientos de años, si bien podría tener serias consecuencias sobre aquellas regiones del planeta en las que el debilitamiento del campo magnético es más acusado.
Las anomalías magnéticas se han detectado principalmente en las latitudes polares y al sur de Sudáfrica, aunque también en menor medida en las profundidades del Océano Pacífico. Una de las regiones más afectadas es el sur del Océano Atlántico, ya que la disminución del campo magnético en la zona ha influido en gran medida en el volumen de pérdida global registrado, al mismo tiempo que ha reducido el nivel de protección que venía ejerciendo sobre la Tierra respecto a las radiaciones naturales procedentes del espacio.
Por ello, los satélites de órbita baja son más vulnerables a estas radiaciones cuando pasan por encima de esta región del sur del Océano Atlántico, debido a lo que denominan “anomalía sudatlántica”.
El caso de la región sudatlántica es un ejemplo de cómo el debilitamiento del campo magnético de la Tierra afecta al sistema global, considerándose al respecto que, además de desproteger al planeta de radiaciones espaciales, la pérdida de fuerza magnética puede también provocar carencias significativas y temporales de ozono.
El proceso de inversión magnética se ha producido a lo largo del tiempo geológico y es utilizado en Magnetoestratigrafía para determinar la edad de las rocas. El método se basa en utilizar minerales ferromagnéticos como la magnetita o la hematita, presentes en rocas sedimentarias e ígneas principalmente, para determinar el campo magnético terrestre en determinado intervalo de tiempo. Dichos minerales tienen la capacidad de alinearse con el campo magnético, por lo cual registran la orientación del mismo. Es bajo este concepto que se ha establecido que el campo magnético sufre reversos (norte magnético pasa al sur geográfico) y normales.

Los científicos han determinado que este proceso es inevitable, sin embargo no se ha podido establecer en que momento sucederá. Diferentes modelos han predecido que si ocurre una inversión, la tierra y su capa de ozono quedarán expuestas al viento solar, lo cual afectaría las actividades humanas, incluso su salud.
Dada la importancia de la Magnetósfera, las diferentes agencias espaciales han demostrado un creciente interés, expresado con el lanzamiento de los tres satélites del proyecto SWARM para estudiar los cambios en el campo magnético terrestre. Este proyecto tiene como objetivo proveer a la comunidad científica mejores mapas magnéticos del planeta para ayudar a entender el impacto del "clima" espacial en las telecomunicaciones y los sistemas de posicionamiento global.


Información adicional: http://www.nasa.gov/topics/earth/features/2012-poleReversal.html

“No podemos dejar que el consumo ilimitado de los seres humanos decida qué suerte correrá la naturaleza. Después de todo, es nuestra propia suerte.”


"End of transmission".













miércoles, 12 de febrero de 2014

LA MANO DE ADONIS



La serie original de "¿ciencia ficcion?", Star Trek, nos sigue asombrando por la correlación ficción-ciencia. En su segundo episodio de la segunda temporada "¿Quién llora por Adonis?", aparece un campo energético en forma de mano humana atrapando a la nave Enterprise. 
Pues bien, una imagen captada por el satélite astronómico NuSTAR está causando sensación por su curiosa forma de mano humana. El azar y la naturaleza son capaces a veces de generar formas tan parecidas a objetos reconocibles que no resulta extraño que en el pasado mucha gente le atribuyera un carácter sobrenatural a manifestaciones de esta clase. La estructura captada en la nueva imagen a buen seguro se habría considerado siglos atrás en algunas sociedades una prueba contundente de la existencia de Dios. La "mano" en cuestión ha merecido el apelativo coloquial de "La Mano de Dios" por su obvio carácter imponente y porque parece estar manipulando una nebulosa.

La nueva imagen de la "Mano de Dios" muestra una nebulosa brillando a 17.000 años-luz de distancia, energizada por una estrella muerta que gira sobre sí misma a enorme velocidad, dando cerca de 7 vueltas completas cada segundo. Este cadáver estelar, llamado PSR B1509-58, es un púlsar, el resultado de la muerte de una estrella que estalló en forma de supernova. El púlsar tiene sólo unos 19 kilómetros (12 millas) de diámetro, pero una importante parte de la masa de la estrella está ahí concentrada, por lo que el astro tiene una densidad colosal.  Según la teoría más aceptada, cuando una estrella masiva agota su combustible nuclear, su núcleo se contrae bajo su propio peso. A medida que se contrae, más prensada está la materia, hasta que llega un punto en el que los protones y los electrones del núcleo de la estrella se fusionan y producen neutrones. Si la masa de la estrella no es demasiado grande, puede permanecer estable en este estado, y en tal caso ha nacido lo que se conoce como estrella de neutrones o púlsar. Se trata de un objeto muy denso, tanto como lo sería el Sol si se le comprimiera para hacerle caber en una esfera de unos 10 kilómetros (6 millas) de radio.

En su frenética y exótica actividad actual, PSR B1509-58 acelera partículas de su entorno que son disparadas contra los restos de la estrella que fueron expulsados en la explosión. Estas partículas interactúan con los campos magnéticos de este caótico escenario, que hacen brillar notablemente a la nube en la banda de los rayos-X. El resultado es una estructura que ya en imágenes anteriores se parecía a una mano abierta, con el reverso visible y la palma oculta. En la nueva imagen se aprecia detalladamente. De hecho, la semejanza con una mano es tanta, que incluso se distingue cuál dedo es cada uno, y que la mano es la izquierda. También se aprecia la postura de la mano, con el meñique proyectado hacia delante de manera que no se ve entero.

¿Acaso no estamos en manos de la Naturaleza?.

 Información adicional:  http://www.jpl.nasa.gov/news/news.php?release=2014-010

"Acercarse a lo sobrenatural es verdadera terapia". Carl Gustav Jung

"End of transmission".








miércoles, 5 de febrero de 2014

LA PARADOJA FIREWALL



No se puede escapar de un agujero negro en la teoría clásica", dijo Stephen Hawking en un estudio publicado en la revista 'Nature'. La teoría cuántica, sin embargo, dice "que la energía y la información puedan escapar de un agujero negro", agregó. Así, los agujeros negros no serían tales en realidad.
En lugar de un horizonte de sucesos, el nuevo estudio de Hawking titulado 'preservación de la información y la predicción del tiempo para los agujeros negros', propone un llamado "horizonte aparente", que aspiraría temporalmente la materia y la energía para "escupirlas" después con una forma muy diferente.
Para Hawking, tratar de predecir qué nueva forma tendría esa materia sería como tratar de predecir el clima: "es posible, pero muy difícil de hacer".
La nueva obra de Hawking es un intento de resolver lo que se conoce como la 'paradoja firewall' (paradoja de las paredes de fuego de un agujero negro), que ha inquietado a los físicos durante casi dos años desde que fuera presentada por el físico teórico Joseph Polchinski, por saltarse por completo la teoría de la relatividad de Einstein.
De acuerdo con esta nueva teoría, el horizonte de sucesos se transforma realmente en una región de alta energía o un muro de fuego. Por lo que, si un astronauta tuviera la mala suerte de caer en un agujero negro se quemaría al instante.


La relatividad dice que si caes en un agujero negro, morirías como un espagueti; tu cuerpo sería estirado gradualmente por las fuerzas gravitatorias cada vez más fuertes. Pero cuando Joseph Polchinski de la Universidad de California en Santa Bárbara y sus colegas exploraron las implicaciones cuánticas de los agujeros negros, se encontraron con un problema. Los agujeros negros emiten fotones a través de algo que se conoce como radiación de Hawking, y estos están “enlazados” con el interior del agujero negro y también entre ellos. Esto rompe la regla de la mecánica cuántica que señala que las partículas no pueden estar enlazadas a dos cosas al mismo tiempo.  


Para conservar la “monogamia” cuántica, Polchinski sugirió que el enlazamiento agujero negro-fotón se rompe. Esto produce un muro de energía en el horizonte de sucesos del agujero negro que echa por tierra la relatividad debido a que cualquiera que caiga se quemaría en lugar de volverse espagueti. Bienvenido a la paradoja del muro de fuego (“firewall”) del agujero negro.
Abundan las posibles soluciones, pero ahora dos físicos, Juan Maldacena del Instituto de Estudio Avanzado en Princeton, y Leonard Susskind de la Universidad Stanford, California, han presentado una más audaz: una nueva clase de agujero de gusano en que el enlazamiento no necesita romperse.
Primero, los dos físicos demostraron que estos túneles en el espacio-tiempo, descritos generalmente por las matemáticas de la relatividad general, también surgen de la teoría cuántica, si dos agujeros negros están enlazados. Es como si el agujero de gusano fuere la manifestación física del enlazamiento.
Luego, extendieron su idea a un único agujero negro y su radiación de Hawking, resultando en una nueva clase de agujero de gusano. Fundamentalmente, sugieren que este agujero de gusano, que vincula un agujero negro y su radiación de Hawking, puede no ser un problema para la monogamia cuántica en la forma en que lo es el enlazamiento normal. Como resultado, el muro de fuego no necesita aparecer, conservando la relatividad.
Patrick Hayden de la Universidad McGill en Montreal, Canadá, dice que la idea de los agujeros de gusano de pares de agujeros negros enlazados es convincente, pero que se necesita más trabajo para el caso del agujero negro y un fotón. Polchinski, por su parte, es cautelosamente optimista: “Sin duda, introduce nuevas ideas. Pero hay mucho que aún tiene que ser llenado”.
Todavía hay espacio para muros de fuego en la nueva definición de agujero de gusano. Maldacena y Susskind también describen cómo un observador fuera del agujero negro podría manipular la radiación de Hawking, creando una onda de choque que viaje hacia el agujero de gusano y aparezca como un muro de fuego. Esto no contradice a la relatividad debido a que el muro de fuego es opcional, no intrínseco del agujero negro. Maldacena espera que el análisis de estas opciones les enseñe a los físicos acerca de la gravedad cuántica.


Ahora, una física sueca llamada Sabine Hossenfelder propuso una nueva solución de la 'paradoja firewall' que, a diferencia de la reciente propuesta de Stephen Hawking, no requiere una revisión radical de los conceptos dominantes en la astrofísica.
En particular, la nueva solución permite confirmar la existencia del 'horizonte de sucesos', la 'entrada' a estos agujeros, algo que el famoso astrofísico británico negó en su estudio publicado en Enero. El objeto de la investigación de Hossenfelder era la llamada radiación de Hawking, la radiación de un agujero negro causada por las fluctuaciones cuánticas del vacío cerca de su 'horizonte de sucesos'. Durante estas fluctuaciones se producen pares partícula-antipartícula, una de las cuales puede ser absorbida por el agujero, y la otra abandona las proximidades de un agujero como radiación. La absorción de antipartículas causa la disminución del agujero. Desde el exterior el fenómeno se ve como evaporación.
Hossenfelder reveló que el proceso de producción de partículas no está realizado por solo un par, sino por dos pares de partícula-antipartícula. Además, los pares interactúan de una manera en la que tanto las partículas salientes, como las entrantes, se entrelazan. El entrelazamiento significa que algunos de los parámetros de estas partículas están interconectados. Seguiremos el tema en siguientes publicaciones a la espera de una nueva respuesta de S. Hawking.


"El hombre busca respuestas y encuentra preguntas". Paradoja del conocimiento

"End of transmission".