31/5/10

Mecanismo Químico de Laguna Antártica Que Podría Operar en Marte

En muchos aspectos, la Laguna Don Juan, en los Valles Secos de la Antártida, es uno de los lugares más extraterrestres de la Tierra. La laguna es nada menos que 18 veces más salada que los océanos de nuestro mundo y prácticamente nunca se congela, incluso a temperaturas del orden de los 40 grados Celsius bajo cero.


Un equipo de investigadores dirigido por biogeoquímicos de la Universidad de Georgia ha descubierto en el lugar un mecanismo químico para la producción de óxido nitroso, un importante gas con efecto invernadero. Ese mecanismo era desconocido hasta ahora. Lo más importante posiblemente sea que el descubrimiento podría ayudar a los estudiosos de Marte a reconocer lagunas saladas similares en el planeta rojo y a comprender lo que implicaría la presencia de tales lagunas en ciertos lugares.

La investigación agrega una nueva e interesante variable al conjunto creciente de evidencias de que hubo, y todavía puede haber, agua en estado líquido en Marte, un prerrequisito típico para la formación de la vida. De hecho, el nuevo hallazgo podría ayudar a los científicos a desarrollar sensores para detectar esas lagunas saladas en Marte, permitiendo así seleccionar los lugares más prometedores como reductos de vida marciana autóctona.

Tal como señala la investigadora Samantha Joye, los suelos y las aguas saladas de la laguna, así como los tipos de rocas que la rodean, son similares a los existentes en Marte o que se cree que pueden existir allí.

De modo que la singular laguna Don Juan proporciona un lugar ideal para analizar la actividad microbiana en ambientes extremos. Aunque el equipo de investigación no detectó ningún "gas biológico" como el sulfuro de hidrógeno y el metano, sorprendentemente sí detectaron altas concentraciones de óxido nitroso, el cual suele ser un indicador de actividad microbiana, pero que en este caso no podía serlo.



Los científicos han estado fascinados con la Laguna Don Juan desde su descubrimiento en 1961. La laguna, que es una cuenca de cerca de 1.000 por 400 metros, es, con gran diferencia, la masa de agua más salada de la Tierra; basta decir que es unas ocho veces más salada que el Mar Muerto. A pesar de que, hace más de 30 años, unos científicos informaron sobre el hallazgo de una microflora abundante y variada de hongos, bacterias, cianobacterias y levaduras, desde entonces y durante el trabajo del equipo de Joye, no se ha visto tal vida.

Por eso, los investigadores se sorprendieron al constatar que, incluso sin formas de vida presentes, detectaban óxido nitroso.

La explicación que han hallado es que una serie de reacciones entre el agua salada y las rocas genera una amplia gama de productos, incluyendo óxido nitroso e hidrógeno. Además de en la Laguna Don Juan, este novedoso mecanismo podría existir igualmente en otros entornos de la Tierra y también podría servir como un componente importante del ciclo de nitrógeno en Marte y como una fuente de combustible (hidrógeno) para dar soporte a la quimiosíntesis microbiana.

El hallazgo de agua ha sido el santo grial de muchas misiones a Marte a lo largo de los años, y en 2009, las cámaras de la misión Phoenix en Marte fotografiaron en las patas de la sonda de aterrizaje lo que parecía ser agua en estado líquido. Si finalmente se confirma, y el creciente número de indicios hace conjeturar que sí, sería la primera vez que se ha detectado y fotografiado agua líquida fuera de la Tierra.

Asombrosas Similitudes Entre el Cerebro Humano y un Chip de Ordenador

Un equipo internacional de científicos ha descubierto similitudes asombrosas entre el cerebro humano, el sistema nervioso de un gusano, y un chip de ordenador.


Con frecuencia se compara el cerebro humano con un ordenador, pero aparte del hecho trivial de que ambos procesan información usando un complejo patrón de conexiones en un espacio físico limitado, nunca, hasta ahora, había estado muy claro si esto es más que sólo una metáfora.

La investigadora Danielle Bassett (Universidad de California en Santa Bárbara) y su equipo, integrado por científicos de Estados Unidos, Reino Unido y Alemania, han descubierto novedosos principios organizativos cuantitativos que subyacen en la organización de las interconexiones presente en el cerebro humano, en la de los circuitos de ordenador de alto rendimiento, y en la del sistema nervioso de un gusano conocido como C. elegans.

Usando datos que están disponibles públicamente, incluyendo imágenes de resonancia magnética de cerebros humanos, un mapa del sistema nervioso del nematodo, y un chip de ordenador estándar, los investigadores examinaron cómo los elementos en cada sistema están interconectados entre sí.



Y descubrieron que los tres comparten dos propiedades básicas.

Una de esas propiedades es que el cerebro humano, el sistema nervioso del gusano, y el chip de ordenador tienen una arquitectura comparable a la de una muñeca rusa (matrioska), con los mismos patrones repitiéndose una y otra vez a diferentes escalas.

La segunda propiedad es que los tres cumplen con una regla usada para describir la relación entre la cantidad de elementos en un área dada y la cantidad de enlaces entre ellos.

Cada uno de esos sistemas contiene un patrón de conexiones que están sólidamente confinadas en un espacio físico. Un chip de ordenador comienza como un patrón de conectividad abstracto, que puede realizar una función específica. La segunda fase implica el mapeo de ese patrón de conectividad sobre la superficie bidimensional del chip. Este mapeo es un paso clave y debe realizarse cuidadosamente para minimizar la longitud total de los cables (un fuerte predictor del costo de fabricación del chip).

El cerebro se caracteriza de manera similar por una conectividad precisa que permite funcionar al organismo, pero está restringida por los costos metabólicos asociados al desarrollo y mantenimiento de largos "cables", o neuronas. Dadas las restricciones similares en cerebros y chips, parece que la evolución y el progreso tecnológico han desarrollado las mismas soluciones para conseguir patrones de mapeo óptimos.

Sofisticada Organización Social Antes de la Invención de la Rueda

Un equipo de arqueólogos del Instituto Oriental de la Universidad de Chicago, encabezado por Gil Stein, director del Instituto Oriental y jefe de la expedición, junto con un equipo de colegas sirios, está hallando nuevas pistas sobre una sociedad prehistórica que ya estableció las bases de la vida urbana en Oriente Medio antes incluso de la invención de la rueda.


El análisis de los restos arqueológicos de Tell Zeidan, que no ha sido objeto de excavaciones hasta ahora, y encima del cual posteriormente no se ha construido nunca, está revelando una sociedad rica en intercambio comercial, en la metalurgia del cobre y en la producción de cerámica.

Los artefactos encontrados allí recientemente están aportando un mayor apoyo a la hipótesis de que Tell Zeidan, en el Valle del Río Éufrates, cerca de Raqqa, Siria, estuvo entre las primeras sociedades de Oriente Medio en desarrollar clases sociales según su grado de poder y de riquezas.

Tell Zeidan tiene una antigüedad que le sitúa entre el año 6000 a.C. y el 4000 a.C., y precedió de manera inmediata a las primeras civilizaciones urbanas del mundo, en el antiguo Oriente Medio. Se trata de uno de los lugares más importantes de la cultura ubaid en el norte de Mesopotamia.



Hasta ahora, los arqueólogos han desenterrado evidencias del comercio de esta sociedad con obsidiana, el trabajo metalúrgico con cobre, así como la existencia de una elite social que empleaba sellos de piedra para marcar su propiedad sobre bienes y objetos culturalmente significativos.

Cubriendo cerca de 12 hectáreas y media, el lugar donde se halla Tell Zeidan fue un cruce de caminos usados en las grandes y antiguas rutas comerciales en Mesopotamia, que siguieron el curso del valle del Río Éufrates. El período Ubaid se extendió desde el año 5300 a.C. hasta el 4000 a.C.

En este enigmático período se produjo la primera fase de desarrollo de la irrigación y la agricultura como prácticas comunes, la construcción de templos centralizados, la entrada en escena de poderosos líderes políticos y la primera aparición del fenómeno de la desigualdad social a medida que las comunidades iban quedando divididas en élites ricas y la gente pobre.

La investigación actual también permite echar una mirada a cómo se desarrollaron las primeras sociedades complejas, basadas en vínculos que se extendían a través de cientos de kilómetros, las distancias a las que eran transportadas algunas materias primas necesarias para la fabricación de muchos de los enseres de Tell Zeidan. Por ejemplo, el mineral de cobre fue transportado por los obreros desde yacimientos sitos a distancias de entre 300 y 400 kilómetros, para ser fundido en Tell Zeidan y producir con él herramientas de metal y otros objetos.

Los Cometas de la Familia de Júpiter, Fuente Principal del Polvo de la Luz Zodiacal

La luz zodiacal, ese tenue resplandor nocturno en las noches despejadas que no está causado por la Luna ni las estrellas sino por el polvo disperso en el espacio interplanetario, fue explicada por vez primera por Joshua Childrey en 1661 como la luz solar dispersada en nuestra dirección por partículas de polvo en el sistema solar. Sin embargo, la fuente principal de ese polvo ha sido objeto de debate desde entonces.


En un nuevo estudio sobre el tema, un equipo encabezado por Peter Jenniskens del Instituto SETI en Mountain View, California, y David Nesvorny del Instituto de Investigación del Sudoeste en Boulder, Colorado, ha llegado a la conclusión de que los asteroides no son la fuente principal. Según ellos, más del 85 por ciento del polvo se originó en la familia de cometas de Júpiter.

Este resultado confirma lo que Jenniskens sospechaba desde hacía tiempo. Como experto en lluvias de meteoritos, se había dado cuenta de que la mayoría deriva de polvo que se mueve en órbitas similares a las de los cometas de la familia de Júpiter, aunque sin tener asociados cometas activos en emisión de polvo.



Jenniskens descubrió un cometa inactivo en la lluvia de meteoritos de las Cuadrántidas en 2003, y desde entonces ha identificado otros cuerpos progenitores similares. Si bien la mayoría están inactivos en su actual órbita alrededor del Sol, todos tienen en común que se fragmentaron violentamente en algún momento de los últimos miles de años, creando estelas de polvo que ahora han migrado hacia la zona orbital de la Tierra.

Nesvorny y Jenniskens, con la ayuda de Harold Levison y William Bottke, del Instituto de Investigación del Sudoeste, David Vokrouhlicky del Instituto de Astronomía de la Universidad Charles de Praga, y Matthieu Gounelle del Museo de Historia Natural de París, han demostrado que esas fragmentaciones de cometas pueden explicar el espesor observado de la capa de polvo de la nube zodiacal.

Al hacerlo, han resuelto otro misterio. Se sabía desde hace mucho que la nieve en la Antártida está espolvoreada con micrometeoritos, de los cuales la mayoría (alrededor del 80 al 90 por ciento) tiene una peculiar composición primitiva, poco frecuente entre los meteoritos más grandes de los que se sabe que proceden de asteroides. Nesvorny y Jenniskens sugieren que la mayoría de los micrometeoritos antárticos son partículas de cometas. Según sus cálculos, los granos cometarios se sumergieron en la atmósfera terrestre a velocidades de entrada lo bastante bajas como para permitirles sobrevivir, llegar al suelo y ser recogidos después por algún cazador de micrometeoritos.

Una Corriente Marítima Masiva en el Océano Antártico


Una profunda corriente oceánica, con un volumen equivalente a 40 veces el del Río Amazonas, ha sido descubierta por científicos japoneses y australianos cerca de la Meseta de Kerguelen, en el sector del Océano Antártico correspondiente al Océano Índico, a unos 4.200 kilómetros al sudoeste de Perth, ciudad de la costa occidental de Australia.


Los investigadores, entre quienes figura Steve Rintoul de la CSIRO, han presentado los resultados de una investigación en los cuales describen la corriente, que circula a más de tres kilómetros de profundidad bajo la superficie marítima, y muestran su importante papel dentro de la red global de corrientes oceánicas que influyen en los patrones climáticos.

La corriente arrastra agua densa y rica en oxígeno que comienza hundiéndose cerca de la costa antártica y circula hacia las profundas cuencas oceánicas situadas más al norte.

Sin este suministro de agua de la Antártida, las zonas más profundas del océano tendrían poco oxígeno.



Mapear las corrientes profundas es un paso importante para llegar a conocer lo bastante bien la red global de corrientes oceánicas que influyen en el clima, ahora y en el futuro.

El mar influye en el clima de diversas maneras, entre ellas almacenando y transportando calor y dióxido de carbono. Cuanta más cantidad almacene el mar, más lento será el cambio climático. La corriente profunda a lo largo de la Meseta de Kerguelen es parte del sistema global de corrientes oceánicas que se conoce como Circulación de Retorno y que determina cuánto calor y carbono puede absorber el océano.

Aunque hubo expediciones anteriores que hallaron evidencias de la existencia de esta corriente, no consiguieron determinar cuánta agua arrastraba.

En la nueva investigación, se ha logrado averiguar que la corriente transporta más de 12 millones de metros cúbicos por segundo de agua antártica con temperaturas inferiores a cero grados centígrados (gracias a que la sal disuelta en el agua de mar no le permite congelarse hasta que no alcance cerca de 2 grados bajo cero).

Estos nuevos resultados muestran que las corrientes profundas cerca de la Meseta de Kerguelen hacen una gran aportación a la circulación oceánica global.

Las aguas antárticas arrastradas hacia el norte por las corrientes profundas van a parar a zonas profundas de los Océanos Indico y Pacífico.

Las Antiguas Megainundaciones Que Anegaron Parte de Alaska

Una nueva investigación indica que una de las mayores inundaciones de agua dulce en la historia de la Tierra sucedió hace unos 17.000 años y anegó una gran zona de Alaska que está ahora ocupada en parte por la ciudad de Wasilla.


La catástrofe fue una de al menos cuatro megainundaciones que tuvieron lugar cuando el lago glacial Atna venció los diques naturales de hielo y descargó un inmenso caudal de agua. El lago cubría más de 9.000 kilómetros cuadrados en la cuenca del río Copper, al nordeste de Anchorage y Wasilla.

La megainundación que cubrió la región de Wasilla liberó nada menos que 1.400 kilómetros cúbicos de agua, suficiente para cubrir un área del tamaño de Washington, D.C., hasta una profundidad de cerca de 8 kilómetros. Ese volumen de agua se desparramó desde el lago en aproximadamente una semana, y a una velocidad tan grande que se formaron dunas de más de 30 metros de altura, con al menos 800 metros entre las crestas. Las dunas aparecen en los mapas topográficos, pero hoy están cubiertas por carreteras, edificios y otras instalaciones.



Michael Wiedmer, David R. Montgomery, Alan Gillespie y Harvey Greenberg, todos de la Universidad de Washington, han completado un estudio en el que describen la megainundación de la zona de Wasilla.

Por definición, una megainundación tiene un flujo de por lo menos 1 millón de metros cúbicos de agua por segundo. La inundación de agua dulce más grande conocida, de unos 17 millones de metros cúbicos por segundo, se originó en el lago glacial Missoula en Montana.

La megainundación provocada por el lago glacial Atna pudo tener un flujo de alrededor de 3 millones de metros cúbicos por segundo. Otra presunta megainundación provocada por el Atna a lo largo de un cauce diferente en la región de Wasilla, pudo tener un flujo de alrededor de 11 millones de metros cúbicos por segundo. Los investigadores también han encontrado evidencias de otras dos megainundaciones desencadenadas por el Atna, aunque pequeñas.

La Estructura del Automóvil Eléctrico

Para hacer que los automóviles eléctricos formen parte de la vida cotidiana se necesita un nuevo diseño del vehículo y sus componentes.


Tomemos por ejemplo el motor que impulsa exclusivamente una rueda, y que va conectado directamente a ésta. Una de las ventajas de estos motores es que los fabricantes pueden usar para otras cosas el espacio ocupado por el motor convencional, ya que esos motores están acoplados directamente a las ruedas del vehículo. Esto abre una rica gama de posibilidades para los diseñadores de automóviles cuando se enfrentan al diseño de un nuevo vehículo.

Como ventaja adicional, al poder prescindir de la transmisión y el diferencial, se reducen las pérdidas de fuerza de empuje y el nivel del desgaste mecánico. Es más, el accionamiento directo e individual de cada rueda puede mejorar la respuesta del vehículo y su seguridad al circular.



Un equipo de investigadores está desarrollando no sólo los componentes individuales sino también el sistema completo. Su automóvil de prueba, conocido como "Frecc0", les sirve como plataforma científica para comprobaciones.

A partir del próximo año, los fabricantes de automóviles y sus proveedores principales también podrán usar el Frecc0 para poner a prueba sus nuevos componentes. La base de este modelo de demostración es un automóvil existente: el nuevo Artega GT, fabricado por la empresa Artega Automobil GmbH.

El establecimiento de esta plataforma y la ingeniería del motor que impulsa exclusivamente una rueda son sólo dos de los proyectos del conjunto a desarrollar por el FSRE (Fraunhofer System Research for Electromobility). La iniciativa está enfocada hacia objetivos que incluyen el diseño del vehículo, la generación de su fuerza de empuje, las técnicas que le permitirán un almacenamiento eficiente de energía, la integración del sistema técnico y hasta los aspectos sociopolíticos.

La meta es desarrollar prototipos de vehículos eléctricos e híbridos, para ayudar a la industria automotora alemana a comenzar la transición definitiva hacia los vehículos eléctricos.

La "Eva Ancestral" de Ciertos Cristales Puede Explicar el Predominio Bioquímico "Zurdo" de la Vida

Un equipo de científicos ha desvelado su hallazgo de un tipo de cristal que podría compararse a una especie de "Eva Ancestral", debido a que miles de millones de años atrás proporcionó a la vida en la Tierra su llamativa preferencia por los aminoácidos levógiros o "zurdos".


Esos "ladrillos" constituyentes de las proteínas aparecen en dos formas: levógira y dextrógira ("diestra"), que son reflejos invertidos de la una con respecto a la otra, como pasa con las dos manos de una persona, iguales en estructura básica pero con orientación opuesta.

Este nuevo estudio puede ayudar a resolver uno de los misterios más desconcertantes sobre el origen de la vida.



Tal como señalan Tu Lee y Yu Kun Lin, cabría esperar que, bajo las condiciones reinantes en la Tierra primigenia, se hubieran formado las mismas cantidades de aminoácidos "zurdos" y "diestros". Sin embargo, cuando aparecieron las primeras formas de vida, hace más de tres mil millones de años, todos los aminoácidos en las proteínas tenían una configuración "zurda". Esa configuración predominante ha seguido hasta llegar a los vegetales y animales modernos.

En experimentos de laboratorio, los científicos usaron mezclas formadas por la versión "zurda" y la "diestra" del ácido aspártico (un aminoácido), para ver cómo la temperatura y otras condiciones afectaban a la formación de cristales del material. Encontraron que bajo las condiciones que seguramente existieron en la Tierra primitiva, los cristales de ácido aspártico levógiro pudieron haberse formado con facilidad y a gran escala. Por tanto, tal como señalan los autores del estudio, el cristal levógiro del ácido aspártico se habría impuesto sobre el otro, y convertido en una especie de "Eva Ancestral" de toda la población levógira.

Desarrollan una Lente Acústica y "Balas Sónicas"


Un equipo de investigadores del Instituto Tecnológico de California (Caltech) ha construido un dispositivo descrito como "lente acústica no lineal" que produce señales acústicas muy enfocadas y de alta amplitud, denominadas coloquialmente como "balas sónicas".


La lente acústica y sus balas sónicas (que pueden existir en los fluidos, como el aire y el agua, y también en los sólidos) tienen un importante potencial para revolucionar aplicaciones que van desde la obtención de imágenes médicas hasta la evaluación no destructiva de materiales.

El dispositivo ha sido desarrollado por Chiara Daraio, profesora de aeronáutica y física aplicada en el Caltech, y Alessandro Spadoni.

Esta singular lente permite generar señales compactas de alta amplitud en un medio lineal, y también permite controlar dinámicamente la ubicación del foco. Esto significa que no es necesario cambiar componente geométrico alguno de la lente para cambiar la ubicación del foco. Todo cuanto se necesita hacer es ajustar la precompresión.

La lente acústica creada por Daraio y Spadoni es, por ahora, tan sólo una prueba del concepto, y es probable que falten aún muchos años para que pueda ser usada en aplicaciones comerciales, ya que algunos de sus subsistemas deben ser perfeccionados para que el aparato sea más práctico de usar.



Pese a todo, el instrumento, en su forma actual, puede potencialmente superar la claridad de imagen y la seguridad de los dispositivos convencionales actuales de obtención de imágenes médicas mediante ultrasonidos.

Los pulsos producidos por la lente acústica, que están unas diez veces más focalizados y tienen amplitudes que son órdenes de magnitud mayores que las que se pueden conseguir usando dispositivos acústicos convencionales, reducen los efectos dañinos del ruido, y producen una imagen más clara del objetivo. También pueden viajar más lejos, alcanzando mayor profundidad dentro del cuerpo que los pulsos de baja amplitud.

Más fascinante resulta la posibilidad de que el dispositivo pueda permitir el desarrollo de un escalpelo no invasivo que podría dirigirse hacia tejidos cancerosos ubicados a gran profundidad en el cuerpo y destruirlos.

Además, las balas sónicas podrían ofrecer un modo no destructivo de comprobar y analizar el interior de objetos no transparentes como puentes, cascos de buques y alas de aviones, en busca de grietas u otros defectos.

Revelan la Estructura de una Proteína Que Permitirá Conocer Mejor a unas Enzimas Cruciales Para la Vida

Por primera vez, unos investigadores han caracterizado la estructura de una proteína que pertenece a ciertas enzimas que son esenciales para el funcionamiento apropiado de todas las formas de vida, desde la levadura hasta los humanos.


Las enzimas, que pertenecen a la familia Sac, participan en la señalización celular y en el tráfico a través de membranas.

Los científicos han descubierto que cuando no está presente el gen que expresa las enzimas Sac en los animales, estos mueren, y las mutaciones de genes relacionados en humanos conducen al cáncer y a ciertas enfermedades neurodegenerativas hereditarias.



Los investigadores, del Instituto Weill de Biología Celular y Molecular de la Universidad Cornell, han caracterizado por primera vez la estructura cristalina de la proteína Sac1 en la levadura.

La levadura sirve como organismo modelo para todas las células; la mayoría de los 6.000 genes en la levadura se encuentra también en los humanos. La proteína Sac1 en la levadura es una progenitora de otras proteínas Sac relacionadas, también existentes en vegetales y animales.

Entender la estructura de la proteína Sac1 abre el camino hacia la realización de experimentos que pueden revelar cómo estas enzimas fundamentales interactúan con las membranas celulares para posibilitar procesos celulares esenciales, lo cual podría conducir a fármacos que actúen de manera específica sobre enfermedades relacionadas.

La enzima fue descubierta por primera vez en 1989, pero nadie había visto la estructura atómica de esta proteína. Otros científicos lo habían intentado, pero ésta es la primera vez que esa estructura ha sido desvelada.

Yuxin Mao y Andrew Manford han intervenido en el estudio.

Sensor Práctico y Eficaz Para Detección Temprana de Corrosión en Puentes


Los puentes de hormigón tienen que ser lo bastante fuertes como para resistir una gran variedad de agresiones: temperaturas extremas, las inclemencias del tiempo, un tráfico denso de vehículos, y las propias emisiones contaminantes de vehículos y otras fuentes parecidas.


Y además están los daños colaterales causados por varios tipos de sal para carreteras que se usan en el invierno con el fin de combatir el congelamiento de éstas. La más común de estas sales es el cloruro de sodio, que se aplica en grandes cantidades a las carreteras de Alemania. Cuando se derrite el hielo, estas sales se dividen en sus componentes iónicos que penetran dentro del hormigón, destruyendo su capa alcalina protectora de 5 centímetros de espesor. Cualquier sal que se filtre a través de las varillas de acero usadas para reforzar la estructura de hormigón provocará que éstas se corroan, con el resultado final de daños estructurales, inicialmente en forma de grietas. En el peor de los casos, un puente afectado por este fenómeno se desmorona.



Hasta ahora, no ha sido posible realizar pruebas eficaces para determinar con detalle cuán profundamente los iones han penetrado el hormigón y qué daño ya han causado. Las pruebas actuales son lentas, toscas y aparatosas, pues implican que trabajadores de la construcción martilleen sobre el hormigón armado en busca de cavidades, las cuales son una señal segura de daño por corrosión.

Un equipo de expertos en el Instituto Fraunhofer para Circuitos y Sistemas Microelectrónicos (IMS) en Duisburgo, incluyendo a Frederic Meyer, ha ideado ahora un método más fiable y barato para detectar corrosión en etapas tempranas. Con un nuevo sensor-transpondedor, se puede medir y monitorizar continuamente el nivel de profundidad alcanzado por los iones en el hormigón.

El dispositivo trasmite inalámbricamente los datos medidos al dispositivo de lectura diseñado para que lo lleven los obreros de la construcción. El sensor-transpondedor no adquiere de una batería la energía que necesita para realizar las mediciones de corrosión, sino de un campo magnético. Esto implica que no necesita ser reemplazado y que puede permanecer en la estructura de hormigón de modo permanente.

Ya están en marcha las primeras pruebas de campo.

23/5/10

(del padre del genoma humano)Crean la primera célula artificial

WASHINGTON, 21 May. (EUROPA PRESS) -

Un equipo de investigadores ha conseguido crear por primera vez en la historia una célula artificial. Los científicos, liderados por el padre del genoma humano, Craig Venter, han logrado la primera célula hecha por el hombre.

"Esta es la primera célula fabricada, y podemos llamarla sintética porque deriva totalmente de un cromosoma sintético, hecho químicamente en un sintetizador químico, comenzando con información en un ordenador", confirmó Venter a la revista Science, donde se recoge el estudio. El equipo de investigadores va más allá y ya ve futuros usos de su logro. "Es una herramienta poderosísima para diseñar biológicamente todo lo que queramos", ya que, según Venter, se podría utilizar para producir fuel, para diseñar nuevas algas que absorban el dióxido de carbono de la atmósfera e, incluso, para fabricar mejores vacunas.

Según la revista Science, el equipo trabajó con una versión sintética del ADN de una pequeña bacteria llamada Mycoplasma mycoides, transplantada a otra bacteria llamada Mycoplasma capricolum, a la que se le había quitado la mayor parte de su información genética.

Después de muchos intentos fallidos, el nuevo microbio comenzó a dar muestras de vida propia en el laboratorio. Todo este proceso llevó años a los investigadores que tenían que solucionar cómo crear un cromosoma artificial a partir de varias secuencias genéticas ensambladas. Tras esto, el problema era cómo convertirlo en otra bacteria. Al fin, el ADN transplantado logró activar la maquinaria celular del nuevo microbio y comenzó a replicarse.

El hallazgo crea además problemas éticos, como opina un profesor de Oxford, que cree está "usurpando el rol de un dios; creando vida artificial que nunca hubiera existido naturalmente".

Primer Recién Nacido Tratado Con Gas Xenón Para Impedir Daños Cerebrales Por Falta de Oxígeno

Por vez primera en todo el mundo, el gas xenón ha sido suministrado con éxito a un bebé recién nacido en un intento de evitarle lesiones cerebrales por la falta de oxígeno al nacer. Esta técnica pionera ha sido desarrollada por la profesora Marianne Thoresen de la Universidad de Bristol, y aplicada en el Hospital de St Michael.


Sin contar los casos de nacimientos prematuros, cada año muchos bebés, que de otro modo gozarían de buena salud, mueren o sufren una lesión cerebral a causa de la falta de oxígeno y/o de suministro de sangre al nacer. Esto puede acarrear secuelas de por vida, como por ejemplo la parálisis cerebral. Sólo en el Reino Unido, esa cifra anual de nacimientos problemáticos tras nueve meses de gestación asciende a más de 1.000.

El uso del gas xenón para prevenir las lesiones cerebrales fue desarrollado por la profesora Thoresen con la ayuda del Dr. John Dingley de la Universidad de Swansea, Reino Unido.



La Universidad de Bristol y el Hospital de St Michael han sido pioneros en el uso de nuevos tratamientos para las lesiones cerebrales en los bebés desde 1998, cuando la profesora Thoresen empezó a someter a temperaturas frías a los bebés tras la falta de oxígeno y demostró que esta técnica podía reducir los daños cerebrales del recién nacido.

El trabajo del laboratorio de la profesora Thoresen había demostrado que el enfriamiento después de la falta de oxígeno reducía las lesiones cerebrales en modelos animales. Luego, los ensayos clínicos en seres humanos probaron que un enfriamiento leve, de sólo unos pocos grados durante 72 horas, es un tratamiento seguro y beneficioso.

Sin embargo, el enfriamiento sólo reduce parcialmente el alcance de las discapacidades y no las evita en todos los bebés. Entonces comenzó la búsqueda de un segundo tratamiento que se pudiera agregar al de enfriamiento, con el fin de reducir aún más el nivel de daños.

El xenón es un gas anestésico muy raro y químicamente inerte, que se halla en cantidades mínimas en el aire que respiramos. En 2002, John Dingley y Thoresen comprendieron el potencial de la combinación del xenón con la refrigeración para reducir aún más el grado de gravedad de las secuelas. En los últimos ocho años, han demostrado en el laboratorio que la acción del xenón se suma al efecto protector del enfriamiento en el cerebro.

Crean un "Imán" de un Solo Polo

Se ha conseguido crear una estructura que actúa como un imán de un solo polo. Este logro técnico había sido perseguido, sin éxito hasta ahora, desde hace muchas décadas.


Los investigadores que lo han conseguido, del University College de Londres, creen que su nueva investigación les lleva un paso más cerca de aislar un "monopolo magnético".

Los imanes tienen dos polos magnéticos, norte y sur. Dos polos iguales, ya sean dos polos norte o dos polos sur, se repelen entre sí, en tanto que los polos opuestos se atraen; uno norte con otro sur. De cualquier manera que un imán sea cortado, siempre tendrá estos dos polos.

Los científicos han teorizado durante muchos años que debe ser posible aislar un monopolo magnético, sólo norte o sólo sur, pero hasta muy recientemente los investigadores han sido incapaces de demostrar esto por medio de experimentos.



Ahora, los investigadores de la citada universidad han logrado que pequeños imanes de tamaño nanométrico se comporten como monopolos magnéticos, gracias a posicionarlos del modo idóneo en una estructura parecida a un panal.

A finales del 2009, varios equipos de científicos consiguieron inducir un comportamiento como el de un monopolo en un material especial.

Sin embargo, en ese material y los de su clase, los monopolos sólo se forman a temperaturas sumamente bajas, de 270 grados Celsius bajo cero, o sea sólo 3 grados por encima del Cero Absoluto.

En cambio, la estructura creada por los investigadores del University College de Londres contiene monopolos magnéticos a la temperatura ambiente

Software Para Ayudar a Planificar Cambios en el Horario de Sueño

Un equipo de investigadores financiado por el Instituto Nacional estadounidense de Investigación Biomédica Espacial (NSBRI) ha desarrollado un software que utiliza modelos matemáticos para ayudar a los astronautas y al personal de apoyo en tierra a adaptarse mejor a los cambios de turnos en el trabajo y a los horarios de sueño. Fuera del ámbito astronáutico, el software podría ayudar a adaptarse a las personas que trabajan de noche, cambian de horario de trabajo de manera drástica o experimentan el “jet lag” debido a viajar a una zona horaria muy distinta de la suya.


La Dra. Elizabeth Klerman, profesora en la Escuela de Medicina de la Universidad Harvard es la jefa del proyecto.



El software tiene dos componentes. El Software de Simulación del Rendimiento Circadiano (CPSS) utiliza complejas fórmulas matemáticas para predecir cómo va a reaccionar un individuo ante condiciones específicas. El CPSS también permite a los usuarios diseñar un calendario de horarios de forma interactiva, incluyendo funciones como la de cambiar el horario del periodo de sueño y el del de vigilia, y predice cuándo se espera que el rendimiento de la persona sea bueno y cuándo malo.

El segundo componente, conocido como Shifter, "prescribe" los momentos óptimos de cada día para usar luz con el fin de cambiar el ritmo circadiano de una persona y así mejorar su rendimiento en las horas críticas de su horario. En estudios recientes se ha comprobado que ciertas clases de luz artificial influyen con mayor eficacia que otras sobre el ritmo circadiano de las personas. De igual modo que la luz solar de un día despejado tiende a aliviarnos la somnolencia, o la penumbra tiende a aletargarnos, luces artificiales con los colores e intensidades ideales pueden crear la ilusión de que es de día o de noche y reajustar el reloj biológico.

Si en una misión está prevista para la 1 o las 2 de la madrugada una operación inaplazable como por ejemplo una salida extravehicular (paseo espacial) para efectuar un trabajo vital, ¿qué se puede hacer para ayudar a los astronautas a estar bien despiertos y capaces de trabajar con toda eficiencia a esas horas tan intempestivas? ¿Se les puede sugerir una siesta? ¿Basta con que recurran a la cafeína? ¿Es más recomendable hacerles cambiar unos días antes su horario de sueño/vigilia? Hay una gran variedad de opciones de entre las cuales, gracias a este programa, se puede escoger la mejor para cada caso e individuo.

Emisión de Gases de Invernadero Por Actividades Humanas Antes de la Revolución Industrial

Un nuevo estudio sugiere que los norteamericanos nativos, anteriores a la fundación de EE.UU. como nación, dejaron una "huella de carbono" más grande de lo que se pensaba hasta ahora. El hallazgo aporta una nueva evidencia de que la especie humana influyó en el clima global mucho antes de la Revolución Industrial.


El análisis químico de una estalagmita encontrada en el oeste de Virginia sugiere que los nativos norteamericanos emitieron a la atmósfera una cantidad significativa de gases de efecto invernadero debido a sus prácticas en el uso de la tierra. Quemaron árboles para despejar bosques y reconvertirlos en plantaciones de las que recolectar los productos agrícolas que constituían una parte importante de su dieta.

Los nativos norteamericanos habían logrado un nivel de vida sofisticado. Estaban muy avanzados en temas agrícolas, y supieron conseguir el máximo rendimiento de las tierras que habitaban. Esto sucedía en toda América del Norte, no sólo en algunos lugares.

Inicialmente, Gregory Springer, profesor de ciencias geológicas en la Universidad de Ohio y autor principal del estudio, y sus colaboradores de esa universidad, la de Texas en Arlington, y la de Minnesota, estudiaban los ciclos históricos de la sequía en Norteamérica usando isótopos de carbono presentes en las estalagmitas.

Para su sorpresa, obtuvieron evidencias de un gran cambio en el ecosistema local que comenzaba en torno al año 100 a.C. Esto intrigó al equipo porque una excavación arqueológica en una cueva cercana había sacado a la luz evidencias de una comunidad norteamericana nativa asentada allí hace unos 2.000 años.



El equipo de investigación encontró niveles muy altos de carbón vegetal que comenzaron a darse hace unos 2.000 años. El historial de niveles isotópicos de carbono concordaba con eso.

Lo descubierto sugiere que los norteamericanos nativos alteraron de manera significativa el ecosistema local, al quemar bosques, probablemente para liberar espacio que destinaron a campos agrícolas y a plantar ciertos árboles frutales.

Mucho antes de que los humanos empezáramos a quemar combustibles fósiles, ya había gente que emitía gases de efecto invernadero a la atmósfera. Por supuesto, no lo hacían en cantidades tan elevadas como las de hoy en día, pero aún así su aportación a la acumulación de gases de invernadero en la atmósfera fue significativa.

Por fuerza, esa antigua deforestación tuvo que impactar sobre el clima global. Por ejemplo, la deforestación actual por quema de la selva amazónica es una de las fuentes más grandes de emisiones de gases de efecto invernadero en el mundo. La quema prehistórica de bosques efectuada por los nativos norteamericanos fue menos intensa, pero constituyó una fuente no trivial de gases de efecto invernadero.

Colonos Extrañamente Lejanos en una Fumarola Hidrotermal

Trabajando en un inusual "laboratorio natural del lecho marino" de fumarolas hidrotermales que acababan de ser sacudidas por una erupción volcánica, un grupo de científicos del Instituto Oceanográfico de Woods Hole (WHOI) y otras instituciones ha descubierto lo que podría definirse como una ruta de colonos subacuáticos.


El descubrimiento de fumarolas hidrotermales en el fondo del Océano Pacífico en 1977 revolucionó las ideas sobre dónde y cómo puede existir la vida.

Las fumarolas del lecho marino, expulsando fluidos calientes, ricos en minerales y repletos de vida a su alrededor, plantearon nuevas preguntas que los investigadores han estado intentando responder desde entonces, incluyendo: ¿Cómo puede prosperar tanta vida en el lecho marino sin luz solar? ¿Cuál es la naturaleza de estos organismos en las fumarolas hidrotermales? ¿Cómo migraron los animales hacia otras fumarolas?

Fue esta última pregunta la que motivó a Lauren Mullineaux, científica del departamento de biología del WHOI, y su equipo, a emprender su estudio de un área de fumarolas en la cadena montañosa conocida como Dorsal del Pacífico Oriental.

Una erupción volcánica fue un inesperado experimento natural que al equipo de investigación le sirvió para observar en condiciones reales un proceso de colonización. Descubrieron una corriente marítima que podría transportar formas de vida diminutas a distancias sin precedentes, permitiéndolas habitar el escenario posterior a la erupción.



Una de esas "especies colonas", la Ctenopelta porifera, parece haber viajado más de 300 kilómetros para establecerse en la Dorsal del Pacífico Oriental.

La Ctenopelta nunca antes había sido observada en el lugar de estudio, y la población más cercana conocida está a 350 kilómetros al norte.

El descubrimiento, en colaboración con científicos del Observatorio Terrestre Lamont-Doherty (LDEO) y el Laboratorio Medioambiental Marino del Pacífico (PMEL) de la NOAA, contradice la suposición ampliamente aceptada de que cuando la vida adulta local es destruida en una erupción hidrotermal, es remplazada por un conjunto de criaturas diminutas provenientes de fumarolas cercanas.

En este caso, las larvas que se reasentaron en el área de la fumarola, después de la erupción, eran notablemente diferentes de las especies que fueron destruidas. Además, las larvas parecen haber viajado desde grandes distancias para alcanzar su destino.

Teóricamente, las corrientes conocidas son demasiado lentas para poder transportar las larvas desde 350 kilómetros de distancia en su período de vida de 30 días. Por tanto, o las larvas son transportadas mediante algún otro mecanismo o viven más tiempo del que se cree.

Grandes remolinos de agua, de varios cientos de kilómetros de diámetro, podrían estar propulsando a gran velocidad a las larvas emigrantes, llevándolas hasta su nuevo hogar durante la vida de éstas. O tal vez las larvas pueden de algún modo reducir su ciclo metabólico y prolongar su tiempo de vida.

La Contaminación Por Antimonio

La mina de antimonio más grande del mundo también se ha convertido en el laboratorio más grande del mundo para estudiar las consecuencias medioambientales de los escapes de antimonio, elemento cuyas propiedades biológicas y medioambientales todavía son desconocidas en buena parte.


Un equipo de científicos de la Universidad de Indiana en Bloomington, la Universidad de Alberta y la Academia China de Ciencias, ha encontrado que las aguas alrededor de la mina Xikuangshan, en el sudoeste de China, contienen niveles de antimonio de dos a cuatro órdenes de magnitud superiores a lo normal (de 0,33 a 11,4 partes por millón).

Tal como señala la investigadora Faye Liu, el antimonio es un contaminante emergente y no se le ha prestado suficiente atención.

Usado en cantidades pequeñas, el antimonio tiene una amplia variedad de aplicaciones, desde combatir la malaria hasta endurecer el plomo en las balas, pasando por mejorar el funcionamiento de las baterías.



Se sabe poco sobre la toxicidad del antimonio, en parte porque en los ambientes naturales este elemento normalmente se encuentra en bajas concentraciones, del orden de unas pocas partes por cada mil millones. En la mina Xikuangshan, Liu y sus colegas han comprobado que las concentraciones de antimonio en el agua podrían ser tan altas como 11 partes por millón, un nivel 1.000 veces mayor que el típico del agua no contaminada.

Las circunstancias alarmantes de la mina Xikuangshan presentan una valiosa oportunidad de averiguar qué le sucede al antimonio, geológica y químicamente, cuando está presente en grandes cantidades en el medio ambiente. Ese conocimiento será útil para las investigaciones sobre la contaminación por antimonio cerca de ciertas fábricas y bases militares en diversas partes del mundo.

La Agencia Estadounidense de Protección Medioambiental y las agencias reguladoras similares en Europa actúan bajo la suposición de que las propiedades del antimonio son similares a las del arsénico, otro elemento del grupo químico del antimonio.

Tal como señala el geólogo Chen Zhu de la Universidad de Indiana en Bloomington, miembro del equipo de investigación, esa situación debe cambiar. Los autores del estudio han comprobado que el antimonio se comporta de una manera muy diferente a como lo hace el arsénico: el antimonio se oxida mucho más rápidamente que éste cuando queda expuesto.

Medir Con Precisión Diferencias de Peso en una Misma Célula Individual

Por vez primera, se ha logrado diseñar una técnica capaz de medir cómo células individuales acumulan masa.Utilizando un sensor especial que mide el peso de las células con un grado de precisión sin precedentes, un equipo de investigadores del MIT y de la Universidad Harvard ha medido por primera vez la velocidad a la que las células individuales acumulan masa. Esta nueva capacidad de medición podría proporcionar datos cruciales sobre cómo las células controlan su crecimiento y por qué estos mecanismos de control fallan en las células cancerosas.


El equipo de investigación, dirigido por Scott Manalis, profesor de ingeniería biológica del MIT, descubrió que las tasas de crecimiento de las células individuales varían grandemente. También halló evidencias de que las células tienen un crecimiento exponencial (lo cual significa que crecen más rápido a medida que se vuelven más grandes).



El nuevo sistema de medición es la primera técnica que puede medir la masa de una célula a medida que crece durante un periodo de tiempo (en este caso, desde 5 hasta 30 minutos). Los métodos anteriores para medir las tasas de crecimiento celular se habían basado en mediciones del volumen o la longitud, y no habían logrado la precisión necesaria que permitiera desvelar con suficiente fiabilidad los modelos de crecimiento de células individuales.

El nuevo método debiera dar a los investigadores un modo de aclarar la relación entre el crecimiento celular y la división celular, una relación que ha sido confusa para la comunidad científica desde hace mucho tiempo, tal como indica Marc Kirschner, profesor de biología de sistemas en la Escuela de Medicina de la Universidad Harvard.

A pesar de que los biólogos tienen una buena idea de cómo se controla el ciclo de la división celular, la cuestión del crecimiento celular (cómo una célula regula la cantidad de material que produce) ha estado envuelta en el misterio.

La Capacidad Mental de Valorar la Intención de una Persona y el Resultado de Su Acción

Imagine este suceso: Una mujer y su amigo están paseando por una factoría química. Llegan hasta una máquina expendedora de café, a cuyo lado hay un depósito con la etiqueta “Tóxico”. La mujer ve este rótulo de advertencia pero aún así vierte un poco de fino polvo blanco del depósito en una taza de café que ha preparado para su amigo, buscando deliberadamente envenenarle. El amigo bebe el café pero sale ileso del incidente, porque, sin que la mujer lo supiera, resulta que el polvo era tan sólo azúcar.


La mayoría de la gente se sentiría indignada ante la conducta de esa mujer, y consideraría que su acto es moralmente repugnante. Sin embargo, en un nuevo estudio, ciertos pacientes con daños en una región cerebral conocida como corteza prefrontal ventromedial reaccionaron de manera muy diferente. Fueron incapaces de experimentar una respuesta emocional normal ante la situación anteriormente descrita, y basaron su valoración sólo en el resultado, es decir sólo tuvieron en cuenta que el hombre no sufrió ningún daño. A su entender, el acto de la amiga era moralmente tolerable.

Eso indica que la capacidad del cerebro humano para responder apropiadamente al intento de hacer daño, es decir, sentir una fuerte indignación hacia el sujeto que ha tratado de hacerlo, se asienta en la corteza prefrontal ventromedial, una región cerebral del tamaño de una ciruela, ubicada por encima y hacia detrás de los ojos, y que interviene en la regulación de las emociones.

Tal como señala Liane Young, del Departamento de Ciencias Cognitivas y del Cerebro, del MIT, el hallazgo hace encajar una nueva pieza del rompecabezas de cómo el cerebro humano construye la moral.



Trabajando con investigadores de la Universidad del Sur de California dirigidos por Antonio Damasio, Young estudió un grupo de nueve pacientes con daños en la corteza prefrontal ventromedial causados por aneurismas o tumores.

Tales pacientes tienen problemas procesando emociones sociales tales como la empatía o la vergüenza, pero tienen intactas sus capacidades para el razonamiento y otras funciones cognitivas.

En el nuevo estudio, los investigadores trataron de averiguar el papel exacto de las respuestas emocionales en la confección de valoraciones morales. Presentaron a los sujetos 24 situaciones y les preguntaron cómo reaccionarían ante tales sucesos. Los sucesos de mayor interés para los investigadores eran aquellos en los que la intención de la persona no coincidía con el resultado de su acción, ya fuese porque fallaba al intentar hacer daño, o bien porque causaba un daño de manera involuntaria y accidental.

Al ser confrontados con intentos fallidos de causar daño, los pacientes eran perfectamente capaces de comprender las intenciones del autor de los hechos, pero no le consideraban moralmente responsable. Los pacientes valoraron incluso los intentos fallidos de hacer daño a alguien como más permisibles que los daños causados sin querer a una persona (como envenenar accidentalmente a alguien), o sea, justo al revés de como lo valoraría una persona adulta normal, para quien es moralmente más reprochable un intento fallido de asesinato que matar a alguien por accidente.

Es resumidas cuentas, la manera que esos pacientes tienen de juzgar a los demás no va más allá de los resultados finales de sus actos.

La capacidad de culpabilizar a quienes tratan de causar daño, aún cuando acaben fracasando en su intento, podría haber evolucionado como una manera de protegernos de aquellos con malas intenciones. Esta información sobre la intención que tenía una persona al hacer algo es fundamental para realizar valoraciones sobre el grado de confianza que nos merece cada persona y para decidir de quienes nos conviene hacernos amigos y a quienes debemos evitar a toda costa. Alguien que desea hacernos daño, aún cuando no lo haya conseguido aún, es tan enemigo como alguien que ya nos haya hecho ese mismo daño.

Tratar el Acné Con Nanobombas de Acido Láurico

Un producto natural que se encuentra en el aceite de coco y en la leche materna humana, el ácido láurico, se perfila como un posible nuevo tratamiento para el acné. Un equipo de especialistas ha desarrollado un "sistema de aplicación inteligente" capaz de enviar bombas nanométricas llenas de ácido láurico directamente hacia bacterias Propionibacterium acnes que habitan en la piel y que provocan el acné común.


El acné común afecta a más del 85 por ciento de los adolescentes, y sólo en Estados Unidos a 40 millones de personas. Los tratamientos actuales tienen efectos secundarios indeseables, incluyendo el enrojecimiento de la piel. Los tratamientos a base de ácido láurico podrían evitar estos efectos secundarios.

El nuevo sistema de aplicación inteligente, desarrollado por la investigadora Dissaya "Nu" Pornpattananangkul en el laboratorio de Liangfang Zhang de la Escuela Jacobs de Ingeniería de la Universidad de California en San Diego, incluye nanopartículas de oro adheridas a las superficies de las nanobombas llenas de ácido láurico. Las nanopartículas de oro evitan que las nanobombas (liposomas) se adhieran unas a otras. Las nanopartículas de oro también ayudan a que los liposomas localicen las bacterias que causan el acné basándose en el microambiente de la piel, incluyendo el pH.



Una vez que las nanobombas alcanzan las membranas bacterianas, el microambiente ácido causa que las nanopartículas de oro se desprendan. Esto permite que los liposomas que transportan las cargas de ácido láurico se fusionen con las membranas bacterianas y maten a las bacterias Propionibacterium acnes.

La aplicación de fármacos controlada con precisión nanométrica a la superficie de la piel podría mejorar significativamente el tratamiento de las infecciones bacterianas de la piel. Al aplicar los fármacos directamente a las bacterias de interés, cabe prever un incremento de la eficacia antimicrobiana y minimizar los efectos secundarios derivados de los tratamientos que no actúan exclusivamente sobre el objetivo.

Todos los elementos constituyentes de las nanobombas son productos naturales o están aprobados para su uso clínico, lo cual significa que es probable que estas nanobombas sean probadas en humanos en un futuro cercano.

La Catástrofe Climática Que Acabó Con la Poderosa Ciudad de Angkor

En la historia escrita, se habla de muchos finales repentinos y apenas explicados de imperios y civilizaciones. El clima político se deteriora, las pasiones se encienden, estallan revueltas, y lo próximo que sabemos es que esa cultura pasó a ser cosa del pasado, quedando muchas veces relegada a un corto capítulo de un libro de historia.


El mundo natural deja un registro en forma de anillos en los árboles. Esos anillos de crecimiento pueden ser leídos como un libro abundante en detalles, y cubriendo un extenso período de la historia humana. Ahora, un equipo de investigadores ha correlacionado la enigmática caída de Angkor, la capital del Imperio Jemer, en Camboya, con una sequía que se prolongó durante décadas, interrumpida puntualmente por intensos monzones, todo ello en los siglos XIV y XV.

Diversos monarcas se sucedieron en el gobierno del área de Angkor desde aproximadamente el año 800 de nuestra era, produciendo las valiosas obras arquitectónicas y esculturas conservadas ahora como Patrimonio de la Humanidad. En el siglo XIII, la civilización ya estaba en declive, y la mayor parte de Angkor fue abandonada a principios del siglo XV, excepto Angkor Wat, el templo principal, que permaneció ahí como santuario budista.



Brendan Buckley (del Observatorio de la Tierra Lamont-Doherty, perteneciente a la Universidad de Columbia), y sus colegas, han encajado las piezas de un registro de alta resolución de períodos de sequía y humedad en el Sudeste Asiático, que abarca tres cuartos de milenio, desde 1250 hasta 2008.

De un modo parecido a la visión de conjunto que ofrecen las imágenes tomadas por los satélites, grandes conjuntos de información como esta serie de datos provenientes de los anillos de los árboles sacan a la luz patrones, tendencias y fenómenos que de otro modo pasarían desapercibidos, ya que en este caso son más extensos que la vida de una persona. De hecho, su extensión es propia de la escala de vida de las civilizaciones.

Angkor era una ciudad que dependía muchísimo del agua. Buckley y sus colegas han desvelado que de mediados a finales del siglo XIV la zona experimentó unas condiciones persistentemente secas que abarcaron décadas, seguidas por varios años de condiciones severamente húmedas, que debieron causar daños graves a las infraestructuras de la ciudad.

Después, una sequía más breve pero más acentuada, a principios del siglo XV, pudo ser la gota que colmó el vaso, superando lo máximo que este complejo urbano podía resistir.

Las Causas de la Incidencia Creciente de las Alergias

Las alergias son cada vez más comunes en la población de las naciones desarrolladas: Fiebre del heno, eczema, urticaria y asma se han hecho frecuentes. ¿La razón? Según el Dr. Guy Delespesse, profesor en la Facultad de Medicina de la Universidad de Montreal, la culpa es de un exceso de limpieza.


Las alergias pueden ser el resultado de una predisposición hereditaria, la contaminación del aire, ciertos aditivos alimentarios, el estrés, el tabaquismo, etcétera. A pesar de esto, al Dr. Delespesse, quien también es director del Laboratorio para la Investigación de las Alergias en el Centro Hospitalario de la Universidad de Montreal, le preocupa nuestra poca exposición a las bacterias.

"Existe una relación inversa entre el nivel de higiene y la incidencia de alergias y enfermedades autoinmunes", explica Delespesse. "Cuanto más estéril sea el entorno en el que vive un niño, mayor será el riesgo de que desarrolle alergias o un problema inmunitario durante su vida".



En 1980, el 10 por ciento de la población occidental padeció de alergias. Actualmente, es el 30 por ciento. En 2010, uno de cada 10 niños es asmático y la tasa de mortalidad como consecuencia de esta enfermedad se incrementó en un 28 por ciento entre 1980 y 1994.

Las alergias y otras enfermedades autoinmunes como la diabetes tipo 1 y la esclerosis múltiple son la consecuencia de que nuestro sistema inmunitario se vuelva contra nosotros.

¿Por qué ocurre esto? Las bacterias en nuestro sistema digestivo son esenciales para la digestión y también sirven para educar a nuestro sistema inmunitario sobre cómo reaccionar ante sustancias extrañas. Esto es clave en el desarrollo del sistema inmunitario de un niño.

A pesar de que la higiene reduce nuestra exposición a bacterias dañinas, también limita nuestra exposición a microorganismos beneficiosos. Como resultado, la flora bacteriana de nuestro sistema digestivo ya no es tan rica y diversa como solía ser.

El Dr. Delespesse recomienda probióticos para enriquecer nuestra flora intestinal. Los probióticos son bacterias intestinales que tienen un impacto beneficioso en la salud. Han sido utilizados durante décadas para hacer yogur.

¿Está Nuestro Universo Dentro de un Agujero Negro Ubicado en un Universo Mucho Mayor?

¿Se halla nuestro universo en el interior de un agujero de gusano que a su vez forma parte de un agujero negro que se encuentra dentro de un universo mucho más grande?


Tras realizar un profundo análisis mediante modelación matemática euclidiana, el físico teórico Nikodem Poplawski, de la Universidad de Indiana en Bloomington, ha llegado a la conclusión de que todos los agujeros negros podrían albergar agujeros de gusano, en cuyo interior existirían universos creados en el mismo momento que sus agujeros negros.

Eso sugiere un escenario en el cual el universo nace desde el interior de un agujero de gusano (también conocido como puente de Einstein-Rosen).



Sólo es posible ver el exterior de un agujero negro. El interior no puede ser observado a menos que un observador entre o resida en su interior. Poplawski argumenta que esta condición puede ser satisfecha si nuestro universo está en el interior de un agujero negro que a su vez exista en un universo más grande. Dado que la teoría general de la relatividad de Einstein no elige una orientación del tiempo, si un agujero negro puede formarse a partir del colapso gravitacional de la materia a través de un horizonte de sucesos en el futuro, entonces el proceso inverso también es posible. Este proceso podría describir la explosión de un agujero blanco: materia emergiendo de un horizonte de eventos en el pasado, como el universo en expansión.

Un agujero blanco está conectado a un agujero negro por un puente de Einstein-Rosen (agujero de gusano) y es hipotéticamente la versión inversa en el tiempo de un agujero negro. Poplawski sugiere que todos los agujeros negros astrofísicos pueden tener puentes de Einstein-Rosen, cada uno con un nuevo universo en su interior que se formó simultáneamente con el agujero negro.

De ello se deduce que nuestro universo podría haberse formado en el interior de un agujero negro existente dentro de otro universo.

14/5/10

trabajo genética


3/5/10

¿Nueva Era Geológica Causada Por el Ser Humano?

Un grupo de científicos, incluyendo un ganador del Premio Nobel, sugiere que la Tierra ha entrado en una nueva era geológica: La Era Antropocena. Y estos expertos creen también que en los albores de esta nueva época puede estar produciéndose la sexta mayor extinción en la historia de la Tierra.


Los geólogos Jan Zalasiewicz y Mark Williams de la Universidad de Leicester; Reino Unido, Will Steffen, director del Instituto de Cambio climático de la Universidad Nacional Australiana, y Paul Crutzen, químico atmosférico de la Universidad de Maguncia, Alemania, ganador del Premio Nobel, aportan sus evidencias para estas conclusiones sobre el cambio climático global.

Estos científicos proponen que, en apenas dos siglos, los humanos le hemos hecho cambios tan inmensos e inauditos a nuestro mundo que podríamos estar estableciendo un nuevo período geológico, y alterando el planeta para los próximos millones de años.



Zalasiewicz, Williams, Steffen y Crutzen afirman que la actividad humana reciente, incluyendo el colosal crecimiento demográfico, las megaciudades con crecimiento acelerado y el inmenso uso de los combustibles fósiles, han cambiado el planeta en tal magnitud que ahora estamos entrando en lo que han dado en llamar la Era Antropocena.

Propuesto por vez primera hace más de una década por Crutzen, el término Antropoceno ha provocado controversias. Sin embargo, a medida que han crecido en número y magnitud las evidencias sobre las consecuencias potenciales de la actividad humana, como el cambio climático global y los marcados aumentos en las extinciones de vegetales y animales, el término de Crutzen ha ganado apoyo.

Ahora mismo, la comunidad geológica mundial está considerando formalmente si el Antropoceno debe unirse al Jurásico, el Cámbrico y otros periodos geológicos que nos son familiares.

Estos científicos advierten que el camino para lograr esa designación formal probablemente estará lleno de fuertes debates con quienes tienen criterios opuestos al suyo, y que por ende habrá mucha polémica. Pero recalcan que, nos guste o no, el Antropoceno representa una nueva fase tanto en la historia de la humanidad como en la de la Tierra, un periodo en el que el conjunto de las fuerzas naturales y el de las humanas se han entrelazado, de modo tal que el destino de uno determina el destino del otro. Geológicamente, éste es un episodio muy notable en la historia de nuestro planeta.

La Personalidad Puede Influir Sobre el Envejecimiento del Cerebro

Un equipo de psicólogos de la Universidad de Washington en San Luis ha descubierto que la personalidad y el envejecimiento cerebral podrían estar relacionados.


Estudiando escaneos mediante Resonancia Magnética por imágenes de 79 voluntarios con edades de entre 44 y 88 años, quienes también habían proporcionado datos demográficos y sobre su personalidad, los investigadores constataron que los sujetos con un nivel alto de rasgos de neuroticismo tenían en las regiones cerebrales frontal y temporal medial volúmenes de materia gris menores que los de las personas sin ese problema y que además, a diferencia de las primeras, eran concienzudas en diversas facetas.

"Éste es un primer paso hacia el objetivo de determinar cómo la personalidad podría afectar al envejecimiento del cerebro", explica la psicóloga Denise Head. "Nuestros datos muestran claramente una asociación entre la personalidad y el volumen cerebral, particularmente en regiones cerebrales asociadas con el procesamiento emocional y social. Esto se podría interpretar como que la personalidad puede influir en la velocidad del envejecimiento cerebral".

Ella también advierte que los resultados pueden estar sujetos a una interpretación inversa, es decir que quizá son realmente los cambios cerebrales durante el envejecimiento los que influyen sobre la personalidad.



En la actualidad, aún no se puede esclarecer esto por completo, pero el equipo de Head hará exámenes de seguimiento a los voluntarios para detectar futuros cambios estructurales.

Head, Jonathan Jackson y David A. Balota, pusieron a prueba la hipótesis de que las personas con un alto nivel de neuroticismo mostrarían al envejecer un menor volumen cerebral, en tanto que los sujetos muy concienzudos, así como los muy extravertidos, tendrían un mayor volumen cerebral. Los resultados de la extraversión no fueron claros, pero los datos sí validaron las otras dos predicciones.

Uno de los primeros cambios que sufre una persona aquejada por la enfermedad de Alzheimer podría estar en la personalidad. Cada vez hay más estudios que sugieren que la gente tiende a volverse más neurótica y menos concienzuda en la etapa inicial de la enfermedad de Alzheimer.

Se sabe que existen procesos degenerativos en marcha antes del diagnóstico de la enfermedad de Alzheimer. Los autores del nuevo estudio quieren averiguar si ciertos cambios sutiles de personalidad podrían ser específicos del surgimiento de un cuadro clínico, y si sería posible predecir quién padecerá de demencia basándose en cambios de su personalidad.

Desaladora-Depuradora Portátil y Autosuficiente Para Suministro de Agua Potable


Después de un desastre natural, como el terremoto de Haití o el Huracán Katrina, a menudo la demanda de agua potable es alta y los suministros son pocos. Las zonas de desastre en los ejemplos anteriores estaban cerca del mar, pero convertir agua salada en agua dulce y potable suele requerir grandes cantidades de energía eléctrica sin cortes de suministro, así como plantas de desalinización a gran escala, y ninguna de esas dos cosas estaba disponible en las áreas de desastre citadas.


Un nuevo enfoque de desalinización con el que trabaja un equipo de especialistas coreanos y del MIT en Estados Unidos, entre quienes figuran Sung Jae Kim y Jongyoon Han, podría conducir a unidades de tamaño lo bastante pequeño como para que resultaran portátiles, y que podrían obtener su energía a partir de baterías o células solares. Un despliegue de estas unidades en la zona de una catástrofe podría proporcionar suficiente agua dulce como para suplir las necesidades de los damnificados. El sistema también podría eliminar muchas sustancias contaminantes, así como virus y bacterias, al mismo tiempo.



Uno de los métodos más atractivos de desalinización, el de la ósmosis inversa, usa membranas que filtran la sal, pero requiere de potentes bombas para mantener la alta presión necesaria para hacer pasar el agua a través de la membrana, y es propenso a que la sal y diversas sustancias contaminantes bloqueen los poros en ella, y también a sufrir la formación de películas bacterianas. El nuevo sistema separa las sales y los microbios del agua al repelerlos electrostáticamente. Eso elimina la necesidad de una alta presión y los problemas de la formación de películas bacterianas.

El sistema trabaja a escala microscópica, y para el mismo se usan métodos de fabricación desarrollados para los dispositivos microfluídicos. Cada módulo individual procesaría sólo cantidades minúsculas de agua, pero un gran grupo de ellos (los investigadores conciben un conjunto de 1.600 módulos fabricados en una oblea de 20 centímetros de diámetro) podría producir cerca de 15 litros por hora, suficiente para suministrar agua potable a varias personas.

La unidad completa podría ser autosuficiente y accionada por la gravedad. El agua salada sería vertida en la parte superior, y la gravedad la conduciría hacia abajo, a través del sistema. En la parte inferior, una salida liberaría agua potable, en tanto que la sal sería dirigida por otro conducto.

Avance Importante en la Iluminación Blanca Mediante OLEDs


Los diodos emisores de luz, que emplean semiconductores para producirla, podrían reducir el consumo de electricidad y el impacto de las emisiones de gases con efecto invernadero. Sin embargo, llevar esta tecnología más allá de los punteros láser y las luces piloto de aparatos eléctricos, para abarcar también la iluminación en viviendas y oficinas, donde se usa una gran parte de la electricidad, requiere que emitan una luz blanca que sea brillante y que se genere de manera barata y eficiente. La luz blanca es la mezcla de todos los colores o longitudes de onda del espectro visible.


Los diodos emisores de luz orgánicos (OLEDs) son candidatos prometedores para el alumbrado en general, ya que pueden cubrir grandes áreas de pantallas o paneles, usándose técnicas baratas de procesamiento. De hecho, las pantallas OLED de un solo color ya están disponibles comercialmente. Una mezcla de materiales que emitan luz roja, verde y azul, puede usarse para generar la luz blanca, pero estas bandas de color a menudo interactúan entre sí, degradando el funcionamiento del dispositivo y reduciendo la calidad del color de su luz.



Usando nanopartículas de polímero para albergar "tintas" emisoras de luz, un equipo de especialistas del Laboratorio Nacional Lawrence Berkeley, incluyendo a Biwu Ma, y expertos de la Universidad de California en Berkeley, ha hecho un OLED de película delgada capaz de emitir varios colores de luz visible, produciendo de ese modo la luminiscencia blanca sin los problemas de interferencias que sufren otros sistemas.

La luz blanca de los OLEDs puede ajustarse para producir blancos más fríos o más cálidos, haciendo que estos materiales resulten confortables de usar en casa o en el trabajo.

En países como Estados Unidos, los edificios son responsables de más del 40 por ciento de las emisiones de carbono, de modo que si se reemplazara con OLEDs una pequeña fracción de las lámparas convencionales, eso ya podría acarrear una reducción significativa en el consumo de electricidad.

La Apnea Moderada del Sueño Aporta Algunas Ventajas Para la Salud

Un hallazgo reciente constituye una buena noticia para los pacientes ancianos que sufren apnea del sueño moderada. Resulta, según se ha constatado, que estos pacientes viven más tiempo que sus homólogos de la población general.


El inesperado descubrimiento ha sido realizado, en el Technion (Instituto Israelí de Tecnología), por el prestigioso investigador del sueño (y presidente actual del Technion) Peretz Lavie, y su esposa, la Dra. Lena Lavie de la Facultad de Medicina.

La apnea del sueño se caracteriza por interrupciones en la respiración durante el sueño que duran 10 segundos o más, al menos cinco veces por hora. Éstas provocan interrupciones repetidas del sueño y niveles bajos de oxígeno en la sangre, y han sido vinculadas con enfermedades cardiovasculares, especialmente la hipertensión. La enfermedad afecta a casi el 10 por ciento de los hombres adultos, quienes, en la mayoría de los casos, no son conscientes de que su respiración se detiene mientras duermen, pero sí se quejan de fatiga crónica, somnolencia excesiva, tendencia a quedarse dormidos durante el día, y ronquidos fuertes e intermitentes.



Los autores del nuevo estudio tienen la hipótesis de que la falta intermitente de oxígeno (hipoxia) que se produce con la apnea del sueño realmente brinda protección al sistema cardiovascular de los pacientes ancianos. Esto explicaría, según ellos, por qué los pacientes ancianos con apnea del sueño moderada muestran una tasa de mortalidad significativamente menor cuando se les compara con la población general. Las conclusiones del nuevo estudio se basan en el análisis de 611 individuos con una edad promedio de 70 años y un período de cinco años de seguimiento.

Detrás de este fenómeno está, según cree el matrimonio de científicos, una proteína en la sangre conocida como VEGF, la cual es generada durante la hipoxia, y que es responsable del crecimiento de nuevos vasos sanguíneos. El estudio desveló que la capacidad de los individuos para producir VEGF variaba ampliamente entre los pacientes, y los individuos que podían producir una gran cantidad cuando estaban expuestos a la hipoxia tenían más vasos sanguíneos alrededor de su corazón en comparación con los individuos que no podían producir esa cantidad. La reserva extra de sangre resultante, según creen, tiene un efecto protector en caso de un ataque cardíaco.

La hipótesis del matrimonio Lavie ha sido confirmada recientemente por investigadores de la Universidad Heinrich Heine en Dusseldorf, Alemania. Stephan Steiner y otros especialistas del Departamento de Cardiología han comprobado que los pacientes con apnea del sueño examinados tenían significativamente más vasos sanguíneos alrededor de sus corazones que los pacientes sin apnea del sueño, a pesar incluso de que no había diferencias entre los grupos en la edad, el peso, el estado del corazón o el uso de medicamentos.

La Estructura Osea, Tan Importante Como la Piel en la Apariencia Joven de Una Cara

Los tratamientos de estiramiento facial (lifting) y otros procedimientos para reducir las arrugas son solicitados desde hace tiempo por la gente que quiere amortiguar las señales del envejecimiento, pero una nueva investigación sugiere que para restablecer una apariencia juvenil se necesita más que estirar la piel flácida.


El estudio, realizado por doctores en el Centro Médico de la Universidad de Rochester, indica que a medida que la gente envejece, se producen cambios significativos en los huesos del rostro, en particular en el hueso de la mandíbula, que contribuyen a la aparición de rasgos faciales comúnmente asociados a la vejez.

El nuevo estudio sugiere que el futuro enfoque para los tratamientos de rejuvenecimiento facial podría basarse en la premisa de restaurar primero la estructura subyacente y luego aplicar procedimientos para estirar la piel.



Revisando una colección de 120 escaneos faciales mediante tomografía computerizada, los cirujanos plásticos midieron los cambios producidos en los huesos de la cara con el transcurso del tiempo. Estos escaneos fueron divididos en tres grupos con 20 hombres y 20 mujeres en cada uno: un grupo de personas jóvenes, otro de gente de mediana edad, y el tercero con sujetos de 65 ó más años de edad.

Los investigadores usaron un programa informático para medir en cada escaneo la longitud, ancho, y ángulo del hueso de la mandíbula, y comparar los resultados de cada grupo. El uso de tomografía computerizada en este estudio permitió obtener una reconstrucción tridimensional y mediciones más precisas.

El ángulo de la mandíbula se incrementa marcadamente con la edad, lo cual provoca una pérdida de la definición del borde inferior de la cara, según los resultados del estudio. En las comparaciones entre los grupos, se aprecia que la longitud de la mandíbula se hace significativamente menor al pasar de la juventud a la edad mediana, mientras que el descenso en la altura de la mandíbula al pasar de la edad mediana a la ancianidad es notable.

"La mandíbula es la base de la parte inferior de la cara, y los cambios en ella afectan a la estética de la cara", subraya el Dr. Howard N. Langstein, profesor y jefe de Cirugía Reconstructiva y Plástica en el Centro Médico de la Universidad de Rochester.

Esta pérdida de volumen óseo puede contribuir a que la piel del rostro se vuelva flácida, entre otros efectos que conducen a la aparición de rasgos faciales típicos de la vejez.

Verifican a Escala Cósmica la Validez de la Teoría de la Relatividad de Einstein

Un equipo liderado por científicos de la Universidad de Princeton ha puesto a prueba la teoría de la relatividad general de Albert Einstein para ver si se cumple a escala cósmica. Y, después de dos años de análisis de datos astronómicos, los científicos han dictaminado que la teoría de Einstein, que describe la interacción entre la gravedad, el espacio y el tiempo, opera a grandes distancias tal como lo hace en las regiones locales del espacio.


El análisis de estos científicos sobre más de 70.000 galaxias demuestra que el universo, al menos hasta una distancia de 3.500 millones de años-luz de la Tierra, sigue las normas establecidas por Einstein en su famosa teoría.

Desde que el físico Arthur Eddington midió la curvatura de la luz de las estrellas alrededor del Sol durante un eclipse en 1919 y demostró la validez de la teoría de la relatividad general de Einstein, el mundo científico ha aceptado sus principios. Pero hasta ahora, nadie había puesto a prueba la teoría tan a fondo ni tan robustamente, a distancias y escalas que van mucho más allá del sistema solar.

En este trabajo, han intervenido Reinabelle Reyes, Rachel Mandelbaum y James Gunn de la Universidad de Princeton, Tobias Baldauf, Lucas Lombriser y Robert Smith de la Universidad de Zúrich, y Uros Seljak de la Universidad de California en Berkeley.



Los resultados del análisis son importantes porque respaldan las teorías actuales que explican la forma y dirección del universo, incluyendo las ideas más aceptadas sobre la Energía Oscura, y permiten descartar las sospechas que se despertaron a raíz de otros experimentos recientes que sugerían que la relatividad general podía estar equivocada.

Publicada por primera vez en 1915, la teoría de la relatividad general de Einstein sigue siendo un avance fundamental en la física moderna. Redefinió la comprensión humana del tejido de la existencia: La gravedad, el espacio y el tiempo.

La innovadora teoría mostró que la gravedad puede afectar al espacio y al tiempo, una cuestión crucial para comprender las fuerzas fundamentales de la física y los fenómenos naturales, incluyendo los agujeros negros.

Diversidad Genética Basada en Cuándo Se Expresan los Genes

Ahora, casi una década después de publicarse el primer bosquejo del genoma humano, los científicos saben que muchas diferencias entre los individuos no son el resultado exclusivo del contenido de sus genes, sino también de dónde y cuándo se expresan esos genes.


Un equipo de científicos dirigido desde la Universidad Yale, usando tecnología de secuenciación de ADN avanzada, ha identificado por primera vez variaciones individuales de dónde, a lo largo de la cadena de tres mil millones de letras que componen el genoma humano, hacen su trabajo diversos genes reguladores importantes.

Estos hallazgos proporcionan nuevos y esclarecedores datos sobre los mecanismos que contribuyen a la diversidad de la vida.

Las diferencias en cómo se regulan nuestros genes podrían conducir a un conocimiento más profundo de las enfermedades, acercándonos más a la medicina personalizada, e incluso ayudar a explicar cómo evolucionan las especies.



Los investigadores analizaron los genomas de varios individuos y un chimpancé para buscar variaciones en áreas del genoma donde ciertas proteínas, específicamente factores de transcripción, se unen a puntos concretos del ADN.

Los factores de transcripción son cruciales para la vida porque controlan la actividad de múltiples genes al regular la transferencia, o transcripción, de información desde el ADN hacia moléculas de ARN, las cuales a su vez transportan la información hacia la maquinaria de fabricación de proteínas en la célula. La ubicación de estos puntos de unión es crucial para determinar la función de los genes que son regulados.

Los investigadores encontraron que los individuos examinados diferían en un 25 por ciento de los puntos de unión que regulan las ARN polimerasas II, las cuales figuran entre las moléculas de mayor importancia para la transcripción de genes a proteínas. Las diferencias entre humanos y chimpancés también fueron pronunciadas, lo cual sugiere que podrían desempeñar un papel clave en crear la variación entre las especies. Cuando los investigadores analizaron una vía bien conocida del sistema inmunitario, se determinó que sólo el 7,5 por ciento de los puntos de unión diferían entre los individuos humanos.

Entre otros, han intervenido en esta investigación: Maya Kasowski y Wei Zheng de la Universidad Yale, y Fabian Grubert y Michael Snyder (ambos ahora en la Universidad de Stanford).