lunes, 30 de enero de 2012

El misterio de la energía perdida de la Tierra

Resuelto un rompecabezas científico de más de 50 años que puede ayudar a proteger las naves espaciales y a los astronautas de las tormentas solares

Investigadores de la Universidad de California en Los Ángeles (UCLA) han conseguido resolver un rompecabezas científico de más de 50 años a partir de datos recogidos por una flota de naves espaciales en órbita. Se trata de la misteriosa desaparición de parte de la energía de la Tierra, los electrones de energía del cinturón de radiación exterior de nuestro planeta, que parecen desvanecerse sin explicación durante las tormentas geomagnéticas provocadas por el Sol, justo cuando más debería notarse su presencia. ¿Dónde iba toda esta energía?
En un artículo publicado en la revista Nature Physics, el equipo muestra que los electrones que faltan son alejados del planeta por una corriente de partículas de viento solar durante los períodos de alta actividad del Sol, como en el que nos encontramos ahora. «Este hallazgo representa un hito importante en la comprensión del ambiente espacial que rodea la Tierra», afirma el autor principal del estudio, Drew Turner, investigador en el departamento de Ciencias de la Tierra y del Espacio, en UCLA. «Ahora estamos un paso más cerca de comprender y predecir los fenómenos del clima espacial».
Durante los eventos solares importantes como las eyecciones de masa coronal -hace tan solo unos días hemos tenido varias muy potentes- , partes de la capa exterior magnetizada de la atmósfera solar chocan contra el campo magnético de la Tierra, provocando tormentas geomagnéticas capaces de dañar los componentes electrónicos de las naves espaciales en órbita.
Estos chubascos cósmicos tienen un efecto peculiar en el cinturón de radiación exterior de la Tierra -una región con forma de rosquilla llena de electrones tan energéticos que se mueven casi a la velocidad de la luz-. «Durante el inicio de una tormenta geomagnética, casi todos los electrones atrapados en el cinturón de radiación se desvanecen y regresan a las pocas horas», explica Vassilis Angelopoulos, profesor en la UCLA.
Los electrones que desaparecían del cinturón sorprendieron a los científicos cuando midieron este hecho, por primera vez, en la década de 1960, mediante los instrumentos a bordo de la primera nave espacial puesta en órbita, según cuenta el coautor del estudio, Yuri Shprits, investigador geofísico. Más extraños aún resultaban los electrones que desaparecían durante el pico de una tormenta geomagnética, un momento en que se podría esperar que el cinturón de radiación se llenara de partículas de alta energía a causa del bombardeo extremo del viento solar.
Desde la década de 1960, los investigadores se preguntaban por el paradero de estos electrones; algunos creían que los electrones se perdían en la atmósfera terrestre, mientras que otros pensaban que los electrones no se perdían, sino que su pérdida de energía temporal los hacía parecer ausentes. Para resolver el misterio, Turner y su equipo utilizaron datos de tres redes de naves espaciales en órbita colocadas a diferentes distancias de la Tierra para captar los electrones que escapan en el acto. Los datos muestran que, mientras que una pequeña cantidad de electrones cae en la atmósfera, la gran mayoría se aparta del planeta, expulsados del cinturón de radiación por las partículas del viento solar durante la tormenta magnética.

La «Tormenta de Halloween»

Una mayor comprensión sobre el cinturón de radiación de la Tierra es de vital importancia para poder proteger a los satélites; el cinturón de radiación exterior de la Tierra es un entorno de severa radiación para las naves espaciales y los astronautas, ya que los electrones de alta energía pueden penetrar en el blindaje de una nave espacial y causar estragos en su delicada electrónica.
Durante la «Tormenta de Halloween» de 2003, más de 30 satélites funcionaron mal y uno se perdió totalmente, explican los científicos. En el umbral del máximo solar en 2013, las tormentas geomagnéticas pueden ocurrir varias veces al mes. «Los electrones de alta energía pueden reducir la vida útil de una nave espacial de manera significativa», apunta Turner. «Los satélites que pasar un período prolongado en el cinturón de radiación de activos podría dejar de funcionar en unos primeros años».
Mientras que una nave puede mejorar su mecánica, los exploradores humanos en órbita no tienen el mismo lujo. Electrones de alta energía pueden atravesar los trajes espaciales de los astronautas y poner en serio riesgo su salud. «Como sociedad, nos hemos vuelto muy dependientes de la tecnología espacial -recuerda Turner-. La comprensión de estos electrones de alta energía y sus variaciones extremas ayudarán a crear modelos más precisos para predecir el efecto de las tormentas geomagnéticas en los cinturones de radiación».

La madre de todos los caballos

Un análisis genético revela que el ancestro común femenino de todos los caballos modernos vivió hace unos 140.000 años

Un análisis genético sugiere que el ancestro femenino común, la madre de todos los caballos modernos, probablemente vivió hace entre 130.000 y 160.000 años. Debido a que las evidencias arqueológicas y genéticas sobre el momento preciso de la domesticación del caballo en la historia humana son incompletas, un equipo de la Universidad de Pavia (Italia) analizó 83 genomas mitocondriales, heredados únicamente de las yeguas, de los caballos modernos en Asia, Europa, Oriente Medio y las Américas.
Entre los genomas, los autores identificaron 18 grupos genéticos principales llamados haplogrupos, cada uno definido por mutaciones específicas. Todos los haplogrupos, informaron los autores, parecen haber surgido de una yegua ancestral alrededor de 140.000 años atrás.
A diferencia de la ganadería moderna, como las vacas y las ovejas, que se derivan de un puñado de animales domesticados hace unos 10.000 años en solo unos pocos lugares, los haplogrupos numerosos de los caballos modernos sugieren que la domesticación de la yegua se produjo en muchos lugares a través de Eurasia.
Según los autores, la definición de los haplogrupos de caballos modernos con un alto grado de resolución molecular podría ayudar a clasificar los fósiles de caballos, dibujar de nuevo el árbol genealógico de las razas modernas, como los pura sangre, y evaluar la influencia de los genomas mitocondriales en la velocidad de los caballos de carreras.
La investigación aparece publicada en la revista Proceedings de la Academia Nacional de Ciencias de EE.UU. (PNAS).

Logran volver invisible un objeto tridimensional por primera vez

El experimento, realizado al aire libre, supone un paso enorme para conseguir que la famosa capa de Harry Potter sea real

Un grupo de investigadores de la Universidad de Texas ha conseguido, por primera vez, volver invisible un objeto tridimensional al aire libre. Y aunque el experimento no se ha realizado en el rango de la luz visible, sino en el de las microondas, se trata de un paso enorme para conseguir que la famosa "capa de invisibilidad" de Harry Potter se convierta, por fin, en algo real.
A diferencia de otros experimentos, que hasta ahora se habían limitado a hacer "desaparecer" objetos bidimensionales, este estudio, que se publica hoy en New Journal of Physics, demuestra por vez primera que es posible conseguir que un objeto cualquiera se vuelva invisible sin necesidad de someterlo a condiciones de laboratorio. Además, la invisibilidad "funciona" desde cualquier dirección, es decir, sin importar la posición en la que se encuentre el observador.
Utilizando un método llamado "encubrimiento plasmónico", los investigadores lograron ocultar, a un rayo de microondas, un tubo cilíndrico de 18 cm. Algunos de los logros más recientes en el campo de la invisibilidad se habían conseguido utilizando "capas" de metamateriales transformados no homogéneos, que tienen la capacidad de curvar la luz alrededor de los objetos, creando la ilusión de que no están allí. Sin embargo, en esta ocasión, Andrea Alu y sus colegas de la Universidad de Texas en Austin utilizaron "metamateriales plasmónicos", que consiguen el efecto de la invisibilidad de una forma muy diferente.
Cuando un rayo de luz incide sobre un objeto cualquiera, rebota sobre él y se dispersa en otras direcciones, igual que una pelota de tenis que rebotara contra una pared. La razón de que podamos ver ese objeto es que la luz ha "rebotado" hacia nuestros ojos, que son capaces de transmitir al cerebro la información recibida y convertirla en lo que llamamos "vista".
Pero los metamateriales plasmónicos no tratan a la luz de la misma manera. Y cuando los campos de dispersión de una "capa plasmónica" interfieren con los del objeto que se quiere volver invisible, se anulan mutuamente, consiguiendo un efecto de transparencia total desde cualquier ángulo de observación. De hecho, es como si el objeto que tenemos delante no estuviera allí.
"Una de las ventajas de la técnica del ocultamiento plasmónico -asegura el profesor Andrea Alu- es su robustez, superior a la de las capas convencionales basadas en metamateriales transformados no homogéneos. Eso hace que nuestro experimento sea mucho más resistente a cualquier posible imperfección, lo que resulta especialmente importante cuando se quiere ocultar un objeto tridimensional al aire libre".

Como si nunca hubiera estado

Alu y sus colegas cubrieron el tubo cilíndrico con un escudo de metamaterial plasmónico. Después dirigieron un haz de microondas hacia el cilindro oculto y cartografiaron la dispersión resultante. Era como si el cilindro nunca hubiera estado allí. El experimento, repetido varias veces y a diferentes frecuencias, funcionó especialmente bien a 3,1 gigahercios.
Según los investigadores, su técnica puede ocultar cualquier clase de objeto, sin importar que su forma sea irregular o asimétrica. El siguiente paso, aseguran, será conseguir el mismo efecto en el rango de la luz visible, es decir, el que percibimos a simple vista.
"En principio -asegura Alu- la técnica puede ser usada también con luz visible. De hecho, algunos materiales plasmónicos funcionan a la perfección en frecuencias ópticas. Sin embargo, el tamaño de los objetos que pueden ser eficazmente ocultados está en función de la longitud de onda en la que estemos operando, por lo que, al aplicar frecuencias ópticas (luz visible), el tamaño de los objetos que podremos ocultar de manera eficaz no pasará de algunas micras (milésimas de milímetro)".
"A pesar de ello -prosigue el investigador- hacer invisibles objetos pequeños puede resultar muy importante para una gran variedad de aplicaciones. Por ejemplo, estamos investigando la aplicación de estos conceptos para ocultar, en las frecuencias ópticas, las puntas de los microscopios, algo que sería extremadamente beneficioso para los trabajos en el campo de la biomedicina".

Dunas artísticas sobre Marte

El satélite Mars Reconnaissance Orbiter (MRO) de la NASA, ha obtenido imágenes de la superficie de Marteen las que pueden verse unas dunas formadas por la acción del viento

El satélite Mars Reconnaissance Orbiter (MRO) de la NASA, ha obtenido imágenes de la superficie de Marte en las que pueden verse unas dunas formadas por la acción del viento. Según han explicado los expertos, la distribución espacial y morfología de las dunas marcianas están directamente relacionadas por los cambios en la dirección e intensidad del viento (al igual que pasa en la Tierra) y gracias a estas formaciones y a los patrones de erosión que se pueden ver en las imágenes, los científicos pueden obtener detalles sobre la historia del terreno.
Concretamente, las fotografías captadas corresponden a unas dunas de arena atrapadas en el interior de un cráter en la zona de Noachis Terra, en el cono sur del planeta rojo y fueron tomadas el pasado 29 de noviembre a una altura de 252,20 kilómetros con respecto a la superficie del planeta. La imagen tiene una resolución tal que cada píxel corresponde a una distancia de 25 centímetros y, por tanto, el área cubierta en la imagen equivaldría aproximadamente a un kilómetro cuadrado.
El satélite fu lanzado en 2005 y entró en la órbita de Marte en octubre de 2006, uniéndose así a otros 3 satélites artificiales que orbitan alrededor de este planeta. La MRO lleva alojada una cámara de alta resolución de nombre HiRISE (High-Resolution Imaging Science Experiment) con la que la NASA está sacando imágenes de alta resolución de la superficie marciana. Concretamente, desde su lanzamiento, se han capturado más de 20.000 imágenes de la superficie marciana.

La mejor foto de la Tierra

El nuevo satélite de la NASA envía unas espectaculares fotografías del planeta con una altísima resolución, las últimas de la serie «Blue Marble»


El nuevo satélite de observación de la NASA Suomi CM ha tomado unas espectaculares fotos en alta resolución de la serie «Blue Marble» (Canica azul), en la que se aprecian los auténticos colores de la Tierra. La fotografía, que muestra nuestro planeta en una imagen compuesta a partir de varias franjas, supone una mirada nueva e impresionante del único hogar que, por el momento, tiene el ser humano.
La agencia espacial ha bautizado la imagen como «Blue Marble 2012» (Canica azul 2012), un homenaje a la legendaria fotografía tomada el 7 de diciembre de 1972 por la tripulación de la nave espacial Apolo 17, posiblemente una de las imágenes de la Tierra tomadas desde el espacio más famosas de la historia.

1,6 km por píxel

La imagen muestra alrededor de 1,6 km por píxel. El satélite está situado a una altura de 824 km sobre la Tierra y tiene una visión completa de la misma todos los días. La imagen está compuesta por el trabajo del instrumento VIIRS del satélite, que fotografía la superficie del planeta en «rebanadas» de 3.000 kilómetros de ancho cada una. Las franjas de cada sucesiva órbita se superponen entre sí, de forma que, al final del día, el sensor tiene una vista completa del mundo.
El Ártico se pierde en la foto porque la luz del Sol de invierno que recibe es insuficiente para permitir que las cámaras puedan ver, según explica la NASA. Además de capturar el espectro de luz visible, la sonda está equipada con instrumentos para medir la temperatura de la atmósfera y los océanos, y es capaz de detectar los incendios forestales y otros fenómenos que contribuyen al cambio climático.

Un asteroide del tamaño de un autobús roza la Tierra

Ha pasado a menos de 60.000 kilómetros de distancia, a la vista de astrónomos aficionados

Un asteroide descubierto recientemente, el 2012 BX34, ha rozado la Tierra esta tarde realmente cerca, a menos de 60.000 kilómetros, mucho más cerca de lo que se encuentra la Luna (0,17 veces la distancia a nuestro satélite natural). La roca espacial de entre 11 y 14 metros de largo, más o menos el tamaño de un autobús, no suponía ningún peligro para nuestro planeta. Al contrario, su visita era motivo de satisfacción para los astrónomos aficionados, que han tenido la oportunidad de observar el vuelo del asteroide, iluminado a una magnitud 14, justo antes de su máximo acercamiento, previsto para las 16.30 (hora peninsular española).
El pequeño asteroide viaja a unos 8.900 metros por segundo. Ha sido observado por el telescopio Catalina Sky Survey en Arizona y el observatorio Magalena Ridge, en Nuevo México (EE.UU.), por lo que su órbita había sido bien precisada y se había descartado totalmente el riesgo de impacto con la Tierra. «No sería capaz de atravesar nuestra atmósfera ni aunque se atreviera a intentarlo», habían dicho en Twitter científicos del centro Asteroid Watch en el Laboratorio de Propulsión a Chorro (JPL) de la NASA en Pasadena, California.

Devastación a gran escala

Los astrónomos aficionados que hayan estado en el lugar adecuado y tuvieran un buen equipo habrán podido ver este objeto espacial, ya que estaba previsto que alcanzara la magnitud 14 en el momento de su máximo acercamiento.
Científicos de la NASA y otros astrónomos realizan un seguimiento regular de los cielos en busca de asteroides que pudieran representar un peligro para la Tierra. Los expertos estiman que el impacto de un asteroide de unos 140 metros puede causar una gran destrucción, pero debería ser aún más grande para causar una devastación a escala global.

«La criatura del arsénico no existe»

Científicos críticos no logran reproducir los controvertidos hallazgos de la NASA que podían cambiar por completo la forma en la que entendemos la vida


Si hay una investigación científica que ha resultado controvertida en los últimos tiempos, ésa es el hallazgo de vida basada en el arsénico. En diciembre de 2010, la NASA anunciaba la existencia de una nueva y extraña criatura, una nueva forma de «estar vivo» que hasta entonces parecía imposible y que abría la puerta a otra forma de buscar seres vivos fuera de la Tierra. Esta bacteria encontrada en el lago Mono de California parecía poder reemplazar el fósforo de su ADN por arsénico, algo así como calmar la sed con veneno en vez de con agua. El estudio apareció publicado en la prestigiosa revista Science. Las voces discordantes no tardaron en surgir. Una de las primeras fue la de Rosie Redfield, una microbióloga de la Universidad Británica de Columbia que calificó el informe como un fraude y aseguró en su blog que los autores eran «malos científicos». Ahora, esta investigadora, elegida por la revista Nature como uno de los diez personajes que han marcado la ciencia de este año, se confirma en lo dicho después de que ella y su equipo intentaran reproducir los resultados del estudio del arsénico. Redfield insiste: es imposible que nadie viva del arsénico.
Los científicos han publicado sus datos en el blog de Redfield y, según dice la investigadora, presentan una «clara refutación» de los hallazgos clave del artículo. «Su afirmación más impactante era que el arsénico se había incorporado a la estructura del ADN, y lo que podemos decir nosotros es que no hay arsénico en el ADN», señala Redfield.
Pero los autores del artículo de Science no se retractan de sus conclusiones. «Estamos encantados de que nuestros resultados estimulen más experimentos», afirma Felisa Wolfe-Simon, ahora en el Laboratorio Nacional Lawrence Berkeley en California, en un correo electrónico a la revista Nature. «No comprendemos totalmente los detalles clave y condiciones de los experimentos de la web. Por lo que esperamos ver este trabajo publicado en una revista revisada por pares, dado que este es el mejor procedimiento para la ciencia».
En el artículo de Science, Wolfe-Simon y sus colaboradores decían haber encontrado una bacteria llamada GFAJ-1 que puede usar el arsénico en lugar del fósforo en moléculas esenciales para la vida. Esto es algo absolutamente sorprendente debido a que el fósforo se considera indispensable para la vida, mientras que el arsénico es tóxico. Redfield y otros científicos expusieron sus dudas, muchas de las cuales se publicaron como comentarios técnicos en Science. No satisfecha con esto, Redfield puso a prueba los resultados y publicó sus progresos en su blog para el avance de la ciencia abierta.

martes, 24 de enero de 2012

Los investigadores garantizan la seguridad de sus trabajos con el virus H5N1

La constante amenaza de una pandemia de gripe representa uno de los mayores retos en la salud pública. Las pandemias de gripe están causadas por virus que evolucionan a partir de reservorios animales, como aves y cerdos, que pueden sufrir cambios genéticos que aumentan su capacidad de transmitirse a los seres humanos.La gripe H5N1 es una amenaza recurrente para el ser humano y, ya el pasado diciembre la difusión de unos resultados sobre la transmisión del virus de la gripe abrió un debate sobre si se debería publicar el resultado completo de las investigaciones por miedo a que pudieran ser utilizadas por grupos terroristas como una terrible arma biológica. En ese momemento, los editores de la revista Science y de Nature  se tomaron muy en serio la petición de los Consejos Nacionales de Bioseguridad de que se publicara sólo la versión abreviada de la investigación. Las autoridades de EE.UU. han comunicado que es probable que no se deban publicar los resultados de esta investigación por miedo a que puedan ser utilizadas por grupos terroristas como una terrible arma biológica.

Existen múltiples planes para hacer frente a una posible pandemia. Sin embargo, uno de los mayores obstáculos en la prevención de estas pandemias de gripe es que se sabe poco acerca de lo que hace que un virus de estas características sea transmisible en humanos. Como consecuencia, no es posible valorar el posible riesgo de pandemia asociada con el virus de la gripe procedente de distintos animales.

Investigaciones recientes han identificado factores determinantes específicos de transmisión del virus de la gripe H5N1 en hurones. Los trabajos han analizado los patrones en la transmisión del virus de la gripe utilizando diferentes modelos animales que se han realizado en distintos laboratorios del mundo con los más altos estándares internacionales de bioseguridad y prácticas de bioseguridad
Seguridad
Dos estudios independientes realizados en dos laboratorios en gripe de la Universidad de Wisconsin-Madison y de Erasmus MC en Rotterdam, Países Bajos, han demostrado que los virus que poseen una hemaglutinina (HA) de la proteína del virus de la gripe aviar H5N1 altamente patógena puede ser transmisible a los hurones. Esta es una información muy relevante y aumenta nuestro conocimiento de la transmisión de la gripe. Sin embargo, se necesita más investigación para determinar cómo los virus de la gripe que están en la naturaleza se convierten en amenazas para una posible pandemia humana, de modo que puedan ser detenidos y controlados antes de que adquieran la capacidad de transmitirse de humano a humano, o para que se puede tomar medidas adecuadas para manejar la situación si finalmente ocurre la adaptación a los humanos.

A pesar de que estos resultados son muy relevantes, ha surgido un debate sobre los beneficios y daños potenciales de este tipo de investigación. La Organización Mundial de la Salud (OMS) lanzó una alerta a los científicos que han logrado diseñar en laboratorio una forma altamente patógena del letal virus de la gripe aviar H5N1, al señalar que su trabajo implica importantes riesgos y que debe ser fuertemente controlado. La agencia de salud de Naciones Unidas señaló que está «profundamente preocupada por las posibles consecuencias negativas» del trabajo de dos equipos líderes de investigación de la gripe que este mes dijeron que habían hallado una forma de convertir a la cepa H5N1 a una forma fácilmente contagiosa y capaz de causar pandemias humanas mortales. Ahora, en un documento, conjunto, desde Nature y Science se subraya que estos experimentos se han realizado bajo la supervisión de personal altamente capacitado y responsable para minimizar el riesgo de liberación accidental.
Moratoria de 60 días
En el documento se señala que «somos conscientes de que nosotros y el resto de la comunidad científica necesidad de explicar claramente los beneficios de esta importante investigación y las medidas adoptadas para reducir al mínimo sus posibles riesgos. Nos proponemos hacerlo en un foro internacional en el que la comunidad científica se reúne para discutir y debatir estos temas. Nos damos cuenta de que las organizaciones y gobiernos de todo el mundo necesita tiempo para encontrar las mejores soluciones para las oportunidades y los retos que se derivan de la obra. Para dar tiempo a estas conversaciones, hemos acordado una pausa voluntaria de 60 días en cualquier investigación con los virus de la gripe aviar altamente patógena H5N1 que conduce a la generación de virus que son más transmisibles en los mamíferos».

Ponen en duda la eficacia y seguridad de los antigripales


Dos años después de que Roche prometiera al BMJ que daría a conocer los principales datos de los ensayos clínicos con oseltamivir para poder llevar a cabo un examen independiente, la seguridad y la eficacia de este medicamento contra la gripe siguen siendo incierto.

La falta de datos concluyentes sobre oseltamivir, un antiviral contra la gripe, hace que dos estudios que se publican hoy planteen serias dudas sobre su seguridad y eficacia. Una revisión realizada por el Instituto Cochrane de las más de 16.000 páginas de datos de distintos ensayos clínicos y de los documentos utilizados en el proceso de aprobación de oseltamivir sólo ha servido para que los investigadores hayan encontrado datos poco consistentes en los trabajos publicados y sugiere que existen efectos secundarios relacionados con el medicamento que no se han hecho públicos. Los autores dicen que, aunque el fármaco produce un alivio de los primeros síntomas en las primeras 21 horas, no parece reducir el número de hospitalizaciones. Además, los datos de este nuevo análisis de los datos plantean preguntas acerca de cómo funciona este un inhibidor del virus de la gripe.

Los hallazgos han sido publicados en The Cochrane Library por un equipo internacional de investigadores de Italia, Australia, EE.UU., Reino Unido y Japón. El otro trabajo, publicado en British Medical Journal, también plantea serias cuestiones sobre el acceso a los datos del fármaco, el uso de «autores fantasma» en los ensayos y sobre el proceso de aprobación de medicamentos.

Fármacos esenciales
Las recomendaciones realizadas en 2002 por la Organización Mundial de la Salud (OMS) han hecho que gobiernos de todo el mundo se hayan gastado miles de millones de euros en la compra de inhibidores de la neuraminidasa como el oseltamivir (Tamiflu) y el zanamivir (Relenza). El objetivo no era otro que reducir la transmisión del virus de la gripe, ya que los medicamentos disminuían la duración de los síntomas en una persona infectada, y por lo tanto, la capacidad de infectar.

En el nuevo informe, dirigido Tom Jefferson, epidemiólogo independiente con sede en Roma (Italia), un equipo de investigadores han obtenido y analizado los datos sobre estos medicamentos antivirales, muchos de los cuales nunca habían sido publicados, y han evaluado algunas de las evidencias asumidas. La revisión se centró principalmente en oseltamivir, ya que es el medicamento que más se utiliza y se almacena y se encuentra en la lista de la OMS de medicamentos esenciales. Los investigadores se mostraron reacios a usar exclusivamente los datos que han sido publicados en revistas científicas, ya que a pesar de que se han llevado a cabo múltiples ensayos clínicos en todo el mundo, sólo se han publicado unos pocos.

«Hemos visto que un gran número de estudios, incluyendo los datos de un 60% de las personas que han participado en ensayos clínicos aleatorios, controlados con placebo y fase III con oseltamivir no han sido publicados. Esto incluye el ensayo más grande jamás llevado a cabo con oseltamivir, que por sí solo incluye a más de 1.400 personas de todas las edades», afirma Jefferson. «Nos preocupa -advierte- que estos datos no hayan estado disponibles para el escrutinio de la comunidad científica».

Otro aspecto poco aleccionador es que aunque el equipo ha podido acceder a miles de resultados facilitados por los organismos reguladores, sólo han podido acceder a una parte de los datos necesarios para evaluar completamente los efectos del oseltamivir, a pesar de las peticiones realizadas al fabricante del medicamento, Roche.

Cuando el equipo comparó los datos publicados con los no publicados, más completos, encontraron falta de consistencia en los ensayos publicados. Por ejemplo, mientras que en los informes no publicados se hace referencia a efectos adversos graves (algunos incluso clasificados como «posiblemente relacionados con oseltamivir»), una de las dos publicaciones más citadas no hace mención alguna a tales efectos, y la otra sentencia «... no hay efectos adversos graves relacionados con el fármaco».

La investigación también plantea interrogantes sobre los efectos clínicos. Después de una cuidadosa evaluación de los datos de los ensayos, los investigadores de Cochrane afirman que oseltamivir parece afectar a la producción de anticuerpos -una afirmación que refuta Roche-. Esto es importante, por ejemplo Cochrane, debido a que la vacunación frente a la gripe se basa en una respuesta de anticuerpos para ser eficaz. Pero cuando British Medical Journal preguntó sobre este tema, Roche se negó a explicar cómo funciona el medicamento.

El informe Cochrane también argumenta que la capacidad del fármaco para prevenir la propagación de la gripe no ha sido demostrada en los ensayos. Sin embargo, esta es una de las razones principales para que gobiernos de todo el mundo hayan gastado miles de millones de dólares en el almacenamiento de oseltamivir en caso de una pandemia -España tiene almacenados 15 millones de tratamientos completos con antivirales-.
Investigación independiente
Los investigadores concluyen que existe una urgente necesidad de llevar a cabo una investigación independiente sobre estos dos fármacos. «Creemos que hasta que se sepa más sobre el modo de acción de los inhibidores de la neuraminidasa, los profesionales de la salud, pacientes y otros decisores deben considerar estos resultados antes de tomar cualquier decisión sobre el uso de los fármacos», advierte Jefferson.
Por su parte, la investigación del BMJ revela cómo las distintas agencias reguladoras adoptaron diferentes enfoques frente a los datos que se les presentaron, dando lugar a mensajes contradictorios sobre la eficacia del producto. Por ejemplo, la Agencia Europea del Medicamento (EMA) facilitó un porcentaje de los estudios clínicos relacionados con los ensayos de Tamiflu a los investigadores de Cochrane, pero admite que no preguntó al fabricante por el resto de los datos, a pesar de que tenía derecho a hacerlo. En este sentido, la EMA ha dicho que planea comenzar a publicar los informes de todos los medicamentos que solicitan ser aprobados en los próximos años.
La editora de BMJ, Fiona Godlee, espera que la EMA de este paso, pero, reconoce, «todavía estamos muy lejos de tener la historia completa todos los fármacos que se usan hoy día».

Mientras tanto, en EE.UU., la Food and Drug Administration (FDA), que ha revisado los ensayos con este producto con mayor detalle, excepto claro está que Roche, detalle tal vez más que nadie fuera de Roche, decidió no revisar el mayor estudio realizado hasta la fecha con el medicamento cuando se aprobó su aprobación.
Mundo globalizado
Para Godlee «las discrepancias entre las conclusiones alcanzadas por los distintos reguladores en todo el mundo ponen de relieve la absurda situación en la que nos encontramos. En un mundo globalizado, las agencias reguladoras deberían cooperar y unir sus limitados recursos; de lo contrario vamos a seguir perdiendo dinero y poniendo en riesgo la salud de las personas».
Roche mantiene que siempre que facilitó la información suficiente al equipo de Cochrane para llevar a cabo su evaluación, pero éstos dicen que no es el caso. «En el BMJ de diciembre de 2009, Roche prometió el informe completo a cualquier investigador legítimo. Sin embargo, no han presentado un solo informe completo al grupo Cochrane, a pesar de nuestras reiteradas solicitudes», señala Peter Doshi de la Universidad Johns Hopkins.

Las migrañas pueden favorecer los accidentes cerebrovasculares

Padecer migrañas puede favorecer la aparición de accidentes cerebrovasculares, según se ha demostrado en el estudio «Hipertensión y Migrañas: Prevalencia y Riesgos Cerebrovasculares», publicado por Journal Hypertension.

Esta afección tiene una incidencia de entre el 12 y el 16 por ciento de la población, siendo las mujeres las que más la padecen. Los resultados obtenidos sobre ella, confirman que las personas que padecen de hipertensión combinada con migrañas tienen más posibilidades de sufrir estas complicaciones cerebrales que un paciente que sólo sea hipertenso.

Al analizar los datos, se deduce que los enfermos con ambas patologías tienen un 4,4 por ciento de posibilidades de sufrir un accidente cerebrovascular, mientras que el dato del estudio baja hasta el 3,1 por ciento si sólo sufren de hipertensión.
Otras enfermedades
En cuanto a las personas que sólo padecen migrañas, tienen un 0,7 por ciento de posibilidades de tener este problema cerebral. Las migrañas, por tanto, no son buenas compañeras, ya que, además, aumentan el riesgo de sufrir diabetes o colesterol alto, tal y como se demostró en un estudio previo.

En concreto, el riesgo de sufrir diabetes se incrementa de un 9,4 por ciento a un 12,6 por ciento, el del colesterol de un 25,6 por ciento a un 32,7 por ciento, y el de la hipertensión de un 27,5 por ciento a un 33,1 por ciento. Para los expertos, la disfunción endotelial afecta a las arterias y no permite el intercambio de nutrientes y desecho.

TEC, la descarga que reactiva el cerebro

Asociada por muchos a la leyenda negra de la psiquiatría, la antiguamente conocida como «electroshock» sigue siendo una terapia efectiva en el combate a graves enfermedades mentales

Lo llamaban «electroshock» y el imaginario popular lo asocia todavía a la larga lista de atrocidades que la historia de la medicina ha alumbrado. Hoy recibe el nombre de terapia electroconvulsiva (TEC) y se sigue aplicando, pero tiene poco que ver con el uso indiscriminado y cruel que han retratado películas como «Alguien voló sobre el nido del cuco» o «Réquiem por un sueño». Se trata de un arma terapéutica eficaz en muchos casos y que administrada de manera controlada ayuda a muchos enfermos mentales que no habían respondido a otro tipo de tratamientos a superar el drama de su enfermedad.
Aunque muchos pacientes piensan que la terapia electroconvulsiva es cosa del pasado y ya no se aplica, en la actualidad es un tratamiento eficaz y frecuente para patologías tan cotidianas como la depresión en casos severos, en los que el enfermo delira o se siente arruinado. También está indicada contra la esquizofrenia y diversas psicosis delirantes y agudas e incluso se utiliza para tratar patologías no psiquiátricas como la enfermedad de Parkinson. En cualquier caso, es una técnica a la que solo se recurre cuando otras opciones se han revelado insuficientes o ineficaces. Suelen pasar varios meses antes de que el psiquiatra prescriba la electroconvulsión. Ese momento solo llega cuando los fármacos, las pastillas, no han funcionado Y para muchas personas, con las descargas se abre paso también la esperanza.

«Salva vidas»

Es raro que se detecten cambios significativos antes de la tercera sesión, pero a partir de esta suele percibirse la mejoría. Las descargas estimulan la actividad de los neurotransmisores, las sustancias químicas que operan en la sinapsis, la transmisión de señales entre una neurona y la próxima. Reactivando su actividad, se contribuye a que el cerebro, prodigioso y enigmático procesador central del ser humano, recupere la normalidad. El tratamiento suele oscilar entre siete y nueve sesiones.
El doctor Juan José López-Ibor, jefe del servicio de Psiquiatría del Hospital Clínico de Madrid, cuenta que, pese a su mala prensa, la TEC «salva vidas». Puede parecer una afirmación exagerada, pero la práctica terapéutica revela que no es así. De hecho, muchos pacientes con alto riesgo de suicidio o que se niegan a comer, apartan estos funestos pensamientos tras someterse a ella.
Una sesión de terapia electroconvulsiva en la actualidad dista mucho de la imagen cruenta que ha transmitido frecuentemente el cine y la literatura. Hoy el paciente es anestesiado previamente y se le administran relajantes musculares para prevenir cualquier riesgo de fractura. Después se le colocan unos electrodos sobre uno o los dos lados de la cabeza y se le aplica una descarga que no dura más de diez o quince segundos. Es entonces cuando sucede la crisis convulsiva. Es algo bastante tranquilo. Ni sale humo de la camilla ni el enfermo se retuerce en ella chillando como la niña de «El exorcista». Según López-Ibor, en la mayoría de los casos apenas se aprecia un leve movimiento en los dedos de la mano.

«Leyenda negra»

La TEC, no obstante, es una terapia, no un milagro, y en consecuencia tiene efectos secundarios. El más frecuente e inquietante para los pacientes es la pérdida de memoria que muchos sufren tras las sesiones. Suele ser reversible, y prolongarse por unas horas o días, pero también hay casos en los que esta amnesia persiste durante meses. Otros menos alarmantes son el dolor de cabeza o cierta confusión.
Pero no son los efectos secundarios lo que hace todavía hoy perviva en el imaginario colectivo la imagen brutal de esta técnica, asociada a la leyenda negra de la psiquiatría y muchos pacientes se muestren reticentes. El doctor López-Ibor cree que a la TEC le ocurre lo que todo lo relacionado con los enfermos mentales, que «carga con un estigma». Y no toda la culpa es de la ficción cinematográfica: «En el pasado se utilizó abusivamente, muchas veces para enfermos en los que no estaba indicado», cuenta el doctor, que añade que «fue sobre todo en Estados Unidos, en un tiempo en que la psiquiatría era muy aguerrida y se entendía que había que combatir la enfermedad como fuera y se utilizaba la TEC indiscriminadamente». Todo aquello quedó superado y, aunque entre el gran público siga predominando aquel tópico, todos los psiquiatras cuentan entre su arsenal terapéutico con la terapia electroconvulsiva.

Cucaracha «cyborg» genera su propia electricidad

Científicos convierten un insecto en una especie de batería viva que podría ser utilizado en tareas de espionaje y vigilancia

Hemos visto en varias oportunidades cómo los científicos implantan chips en un insecto y lo convierten en una versión radiocontrolada de sí mismos. En general, este tipo de cyborg tiene una utilidad limitada por requerir de una batería o fuente de alimentación externa que complica la movilidad de la criatura. Pero en la Case Western Reserve University han ido un paso más allá, consiguiendo que la energía eléctrica necesaria para alimentar la electrónica que estos insectos llevan encima sea producida por los químicos de sus propios órganos internos.
Sí. Suena a película de ciencia ficción barata pero es real: los insectos cyborgs están muy cerca de convertirse en realidad. Si bien desde hace bastante tiempo se ha conseguido controlar y dirigir a varios tipos de insectos de forma remota gracias al implante de algún chip en su cuerpo, casi siempre eran experimentos limitados al ámbito del laboratorio, ya que estos componentes electrónicos debían ser provistos de la electricidad necesaria a partir de pesadas baterías o mediante un cable. En estas condiciones, el insecto está muy limitado en sus movimientos, convirtiéndose en una curiosidad con poca utilidad práctica. Pero el trabajo de los científicos de la Case Western Reserve University es distinto. Han conseguido generar la electricidad necesaria para alimentar sensores, chips y demás elementos electrónicos a partir de los elementos químicos internos del propio insecto.
El trabajo, que ha sido publicado en la edición digital del Journal of the American Chemical Society, es clave para convertir los ciber-insectos en realidad. Daniel Scherson, profesor de química en la Case Western Reserve y miembro del equipo que llevó a cabo estos experimentos, dice que “es prácticamente imposible empezar de cero y hacer algo que funcione como un insecto. Partiendo de un insecto vivo es mucho más fácil (conseguir un insecto robótico), pero se necesita energía eléctrica para los sensores y para excitar las neuronas del insecto para que éste haga lo que uno quiere”. Gracias al trabajo de su equipo, esta energía podría generarse en el mismo insecto. Scherson ha trabajado codo a codo con la estudiante Michelle Rasmussen, el profesor de biología Roy E. Ritzmann, la profesora de Química y Biología Irene Lee y el asistente de investigación Alan J. Pollack para desarrollar esta especie de “celda de biocombustible” capaz de generar electricidad en una cucaracha.

Electrodos en el abdomen

El secreto reside en la utilización de dos enzimas. La primera de ella es capaz de romper las moléculas de un azúcar que se encuentra en el interior de la cucaracha, dividiéndolas en dos moléculas más simples. La otra se encarga de oxidarlas, liberando electrones. Estos conforman una corriente que se dirige hacia el cátodo, donde se combinan con el oxígeno del aire produciendo agua. Para que esto funcione se requiere insertar un par de electrodos en el abdomen de la cucaracha, en una zona que se encuentra lejos de los órganos internos críticos.
“Los insectos tienen un sistema circulatorio abierto para que la sangre no esté sometida a mucha presión. A diferencia de lo que ocurre con los vertebrados, si se coloca una sonda la sangre no sale expulsada por la presión. Básicamente, se trata de un proceso bastante benigno y no es raro que el insecto se pare por sí mismo y camine o corra inmediatamente después de ser modificados”, dice Ritzmann. Segun estos investigadores, las cucarachas no sufrieron ningún daño a largo plazo, por lo que podrían -en el futuro- ser convertidas en “cyborgs” y ser utilizadas en tareas de espionaje o vigilancia.

El reloj del Juicio Final avanza un minuto

El equipo de científicos que lo regula ha adelantado las manecillas, que indican cuánto le queda a la especie humana para su destrucción total, debido a la posibilidad de un conflicto nuclear o una catástrofe climática

Las manecillas del llamado Reloj del Juicio Final (Doomsday Clock), que representa en «minutos para la medianoche» cuánto le queda a la especie humana para su destrucción total, han avanzado un minuto. El motivo es el mayor riesgo de un posible desastre nuclear o una catástrofe causada por el cambio climático, según ha anunciado el grupo de científicos que lo regula en el «Boletín de los Científicos Atómicos». Este reloj, situado en la Universidad de Chicago y creado en 1947 por un grupo de científicos preocupado por el posible estallido de una guerra nuclear, se ha convertido en un indicador universalmente reconocido de la vulnerabilidad del mundo.
El reloj se acerca o se aleja de la medianoche según la sitaución política, científica y militar a nivel global. La última vez que el reloj del Juicio Final movió sus manecillas fue en enero de 2010, cuando los científicos retrasaron las agujas un minuto desde los cinco a los seis minutos antes de la medianoche. Las perspectivas eran buenas. Sin embargo, «frente a los avances insuficientes en la reducción de armas nucleares y la proliferación y la falta de acción continua sobre el cambio climático», han decidido avanzar la maquinaria un minuto hasta las 23.55. Simbólicamente, representa que la humanidad está a cinco minutos de la hecatombe.
En un comunicado emitido por el comité de científicos que forman parte de la junta directiva de la revista se señala que «hace dos años parecía que los líderes mundiales podrían confrontar las amenazas globales a las que nos enfrentamos». Pero «en muchos casos, esa tendencia no ha continuado o se ha revertido. Por esa razón, el Boletín de los Científicos Atómicos ha movido la manecilla del reloj un minuto más cerca de la medianoche, de vuelta a la hora que marcaba en el año 2007».
Como horario incial, la junta de directivos del Boletín decidió colocar las agujas en siete minutos para la medianoche. En sus primeros 60 años, el reloj ha tenido 18 movimientos, que dependeían especialmente en sus primeros años por la actividad nuclear de las potencias. Las agujas del reloj han estado en varias ocasiones muy cerca de la medianoche, lo que significa estar muy cerca del día del desastre.

El peor momento

El peor momento fue en 1953, cuando se colocaron a dos minutos de las cero horas a raíz de la primera explosión de una bomba de hidrógeno por parte de Estados Unidos. La Guerra Fría tuvo uno de sus momentos más críticos durante el mes de octubre de 1962, con Rusia instalando misiles nucleares en territorio cubano. Durante la duración del conflicto, el reloj no registró cambios, y se mantuvo en doce minutos. Otro punto crítico fue durante 1984, cayendo a tres minutos debido a un aumento en la carrera armamentista entre ambas potencias, mientras que en 1991 alcanzó su punto más alejado gracias al tratado START de reducción de armamento nuclear entre Estados Unidos y Rusia.
La nueva decisión de los científicos atómicos sobre el reloj del Juicio Final es una llamada de alerta sobre la situación del mundo.

Así son Kepler-20e y Kepler-20f, los dos planetas más parecidos a la Tierra

 Uno es ligeramente más pequeño y el otro solo un 3% mayor que nuestro mundo. La composición podría ser también similar, pero las elevadas temperaturas impiden que alberguen vida

La Nasa ha anunciado este martes el descubrimiento de dos nuevos planetas de tamaño casi idéntico al de la Tierra. Ambos se encuentran en órbita alrededor de una lejana estrella, Kepler 20, a unos 950 años luz de distancia, y han sido bautizados como Kepler 20e y Kepler 20f. En un artículo que publica esta semana la revista Nature, Francois Fressin, del Instituto de Astrofísica Harvard Smithsonian, explica que se trata de los dos planetas más pequeños jamás detectados hasta ahora en la órbita de una estrella similar al Sol.
Uno de los dos nuevos mundos, Kepler 20f, es apenas un 3% mayor que la Tierra, mientras que el otro es algo más pequeño (su radio equivale a 0,87 veces el de nuestro planeta). Los dos parecen ser rocosos, pero sus elevadas temperaturas superficiales, (815 y 426 grados respectivamente) impiden que sean candidatos a albergar alguna forma de vida, por lo menos tal y como nosotros la conocemos.
Fressin y sus colegas afirman que ambos planetas podrían tener composiciones muy similares a las de la Tierra. Basándose en las proporciones de los diferentes minerales que componen nuestro planeta, los investigadores se atreven a aventurar que, al tener un radio similar, los dos nuevos mundos están hechos de un 32% de hierro, concentrado en sus núcleos, y de un 68% de silicatos en sus mantos. Además, el más exterior de los dos planetas (Kepler 20f) podría incluso haber desarrollado una tenue atmósfera de vapor de agua.

La búsqueda de vida

Antes de hacer público el hallazgo, los investigadores analizaron los datos recogidos por el telescopio espacial Kepler durante 670 días, un periodo durante el que se registraron hasta cinco señales de tránsito periódico en la estrella Kepler 20. Cada señal corresponde al paso, o tránsito, de un objeto entre la estrella y nosotros, lo cual provoca un ligero descenso de su luminosidad y revela a los astrónomos la presencia de un nuevo planeta. Hasta ahora, sin embargo, sólo se conocían tres planetas gigantes orbitando alrededor de Kepler 20 (Kepler 20b, c, y d). Las dos señales adicionales, no detectadas hasta ahora, revelaron la existencia de los dos nuevos mundos.
El hecho de que las dos nuevas señales fueran mucho más pequeñas que las otras tres conocidas reveló de inmediato a los investigadores que se trataba de planetas más pequeños que los tres ya conocidos, con periodos orbitales de 6,1 y 19,6 días, respectivamente, y con radios muy similares al de la propia Tierra.
A principios de este mes, otro grupo de investigadores anunció el hallazgo de Kepler 22b, otro planeta «terrestre» con una temperatura superficial de unos 22 grados centígrados. Sin embargo, su tamaño (2,4 veces la Tierra) hacen pensar que es demasiado grande como para tener vida y que podría parecerse más a Neptuno, con un núcleo sólido y una superficie gaseosa y, solo tal vez, líquida.
Sea como fuere, este hallazgo acerca un poco más a los planetólogos hacia su objetivo final: encontrar un mundo gemelo de la Tierra. Para conseguirlo, además del tamaño, deben darse otra serie de condiciones: que el planeta en cuestión orbite alrededor de una estrella similar al Sol, y que lo haga, además, a una distancia concreta, la que permite que en su superficie pueda haber agua en estado líquido. «El objetivo del telescopio espacial Kepler -asegura Fressin- es encontrar planetas del tamaño de la Tierra en la zona habitable de sus estrellas». La búsqueda, según la opinión generalizada de los científicos, está llegando a su final, y son muchos los que piensan que la «nueva Tierra» está muy cerca de ser descubierta.

Casi un centenar de ballenas aparecen varadas en Nueva Zelanda

Es el tercer fenómeno de este tipo que ocurre en la zona durante este verano austral

Más de 90 ballenas piloto han sido encontradas varadas en Nueva Zelanda, el tercer fenómeno de este tipo durante el verano austral, informan las autoridades locales. Voluntarios y expertos hacen lo imposible por empujar a los cetáceos hacia el mar, pero las tareas son, por desgracia, muy complicadas.
Los cetáceos fueron descubiertos a primera hora del lunes por un avión que sobrevolaba una remota playa de Golden Bay, al norte de las Isla Sur. El dispositivo de rescate intentó que las ballenas regresaran a aguas más profundas, aunque la "confusión" de los mamíferos y la marea baja impidió el rescate, indicó John Mason, director del Departamento de Conservación (DOC) de Nueva Zelanda
Cerca de 50 personas, 10 trabajadores de DOC y 40 voluntarios, se han desplazado a la zona para mantener a los animales con vida, mientras se espera a la subida de la marea para retomar las operaciones de rescate.
El director del organismo conservacionista explicó que es "inusual" que se produzcan tres varamientos durante un mismo verano. "Por lo general, sucede un incidente cada verano y de vez en cuando dos, pero en los últimos 10 años no hemos tenido tres varamientos en el mismo verano", declaró Mason.

65 ballenas muertas

A principios de enero, 25 ballenas piloto encallaron en la playa de Farewell Spit, al noroeste de la Isla Sur, de las que se salvaron 18 cetáceos. En noviembre del pasado año, cerca del inicio de la época del verano austral, otras 65 ballenas perdieron la vida tras quedarse atascadas en Golden Bay.
Las aguas de Nueva Zelanda forman parte de la ruta que hacen las ballenas que se dirigen o proceden de la Antártida, y en septiembre inician el viaje de retorno hacia aguas más frías.
La ballena piloto, también llamada Calderón común, es un cetáceo de frente abombada y cuerpo robusto que puede alcanzar seis o siete metros de longitud.

El planeta que se evapora ante nuestros ojos

Del tamaño de Mercurio, este mundo rocoso se volatiliza por estar demasiado cerca de su estrella


¿Puede evaporarse un planeta? Sí, claro, hay algunos ejemplos de gigantes gaseosos o Júpiter calientes, que terminan de esa forma. ¿Pero un planeta rocoso, que además tiene el tamaño de Mercurio? La respuesta, si los científicos no están equivocados, es, por extraño que nos parezca, positiva. En efecto, eso parece estar ocurriendo ante nuestros ojos. De confirmarse, sería la primera vez que un planeta con el corazón de roca se transforma en una nube de gas con una cola como la de un cometa, lo que demuestra lo asombrosos que pueden llegar a ser los mundos fuera de nuestro Sistema Solar. La investigación, llevada a cabo por el Instituto Tecnológico de Massachusetts, aparece publicada en arxiv.org.
La evaporación, según publica New Scientist, se infirió a partir de observaciones realizadas con el telescopio espacial Kepler de la NASA. Los investigadores comprobaron cómo una estrella llamada KIC 12557548, ligeramente más pequeña que el Sol, sufre un pequeño eclipse cada 15.685 horas, con una gran precisión. Esto sugiere que un compañero orbital está en tránsito, es decir, que pasa por delante de la estrella. Pero a diferencia de otros tránsitos vistos por Kepler, el «guiño» de este sistema varía enormemente de un paso a otro.
Los científicos creen que esta variación está motivada por algo que parece asombroso. El planeta que pasa por delante se está convirtiendo en gas debido a la intensa radiación de su estrella. Y es que el planeta se encuentra a solo un 1% de la distancia de la Tierra del Sol, donde se debe alcanzar una temperatura de 2.000 grados Kelvin. «Eso está muy por encima de lo que se necesitan para vaporizar el piroxeno y olivino, minerales comunes que forman los planetas rocosos», dice a New Scientist Eugene Chiang, de la Universidad de California, Berkeley, y miembro del equipo de investigación.
Como resultado, el planeta se deshace en una cola de vapor y polvo. Esta gran nube alrededor del planeta bloquea la luz de la estrella cuando el exoplaneta pasa por delante. Esto es similar a la forma en la que la luz solar vaporiza el hielo de los cometas, produciendo una nube de polvo que se denomina coma. Por ese motivo, el planeta puede tener incluso una cola como la de un cometa.
El equipo cree que el planeta debe de tener el tamaño de Mercurio porque si fuera más grande, su gravedad evitaría que el gas y el polvo se escape al espacio para formar la nube, mientras que un planeta más pequeño se evaporaría tan rápido que sería prácticamente imposible encontrarlo en esa fase.

El destino de Mercurio

Asumiendo que el planeta es del tamaño de Mercurio, desaparecerá en unos 200 millones de años. Según los científicos, esto puede ser un ejemplo de lo que ocurrirá en nuestro propio sistema solar, dentro de miles de millones de años cuando el Sol se convierta en una gigante roja. Antes de ser tragado por nuestra estrella, Mercurio hervirá y se sublimará, también, en una nube de polvo.

Titán, más parecido a la Tierra de lo que se creía

Posee una atmósfera a capas al igual que nuestro planeta, otra similitud que convierte a este mundo en uno de los más atractivos del Sistema solar

 


La luna más grande de Saturno, Titán, ha acaparado en los últimos tiempos la atención de astrónomos y astrobiólogos por la compleja actividad química que tiene lugar en su superficie, hasta el punto de que este enigmático satélite se ha convertido en uno de los lugares del Sistema Solar donde existen más probabilidades de encontrar, con todas las cautelas que suscita una idea semejante, alguna forma de vida extraterrestre. Ahora, los científicos han encontrado otra prueba sobre este mundo que aumenta aún más su interés. Y es que la atmósfera de Titán es sorprendentemente parecida a la Tierra.
Titán tiene una densa atmósfera de nitrógeno, con lluvia, ríos, lagos y mares. Es un mundo mucho más frío que el nuestro, y el metano líquido y el etano ocupan el lugar del agua, pero sus procesos hidrológicos son muy similares a los que conocemos aquí. Además, es posible que esconda un gran océano líquido bajo su superficie. Por si esto fuera poco, ahora científicos del Centro Nacional Francés de Investigación Científica (CNRS) y de la Universidad de Sao Paulo en Brasil han descubierto que la atmósfera de Titán está dividida en capas inferiores similares a las de la Tierra, según un estudio publicad en Nature Geoscience.
Los investigadores ya sabían que la atmósfera de Titán es tan densa que ni siquiera puede verse la superficie, oculta bajo una espesa niebla compuesta en su mayor parte por hidrocarburos. Como resultado, la baja atmósfera tiene dos capas distintas y la más baja, como en la Tierra, se conoce como la capa límite y es la que tiene más influencia sobre el clima.

Vientos y dunas

Los científicos han llegado a esta conclusión tras desarrollar un modelo climático en 3D. Datos previos obtenidos por las sondas Voyager 1, Cassini y Huygens habían dado resultados contradictorios, ya que la atmósfera inferior no puede ser observada directamente porque la alta es muy opaca. El nuevo modelo climático muestra que hay dos capas bajas distintas entre ellas y también diferentes a la superior. La más baja, de unos 800 metros de espesor, está causada por el calor y el enfriamiento diarios de la superficie y varía en altura durante el día, mientras que la siguiente tiene unos 2 kilómetros y está provocada por el cambio estacional en la circulación global del aire. Controlan los patrones de viento, la separación de las dunas y la formación de la nubes a baja altitud.
Titán recibe mucha menos energía solar que la Tierra. Este aislamiento del Sol, que determina las variaciones de temperatura en la atmósfera, es mil veces más débil en Titán que en la Tierra. Para los científicos, encontrar esta atmósfera tan dinámica en la luna de Saturno ha sido algo inesperado, pero puede dar pistas sobre la formación de nuestra propia atmósfera y quizás sea un anticipo de lo que podemos encontrar en otros planetas fuera de nuestro Sistema solar.