domingo, 27 de mayo de 2012
Así se hundió el Centro de Investigación Príncipe Felipe
El Centro de Investigación Príncipe Felipe (CIPF) en un tiempo fue un reclamo exquisito. Otro gran evento en Valencia. En el acto de inauguración, en marzo de 2005, el entonces presidente de la Generalitat, Francisco Camps, proclamó: "Hoy es un gran día para la ciencia, para la Comunidad Valenciana, para España y para los que dedican su esfuerzo y su vida a la investigación".
Todo lo que tenía que ver con el CIPF sonaba a caro, carísimo, pero útil y en ese momento imprescindible. Y además había con qué ir pagándolo: como unas salas blancas (dependencias con niveles de contaminación muy controlados), aún por terminar, que no llegaron a utilizarse y que costaron más de dos millones de euros. Una inversión a la que se le pensaba dar una utilidad terapéutica con el traslado de pacientes de hospitales de la ciudad y que, por su complejidad, nunca llegó a realizarse.
Con el edificio levantado y los laboratorios en funcionamiento, uno de los objetivos de comunicación de la institución fue que se hablara mucho y, además bien, del trabajo que desempeñaban los investigadores. La calidad de los profesionales del CIPF produjo titulares y éxitos a mansalva: aislamiento y cultivo de células madre para tratar enfermedades incurables como Parkinson o Alzheimer, líneas de investigación sobre el cáncer, avances en los tratamientos de reparación medular... Aun así, sabía a poco.
Había que traer lo mejor para mantener esa ficción interesada, aunque pidieran mucho. Rubén Moreno, por entonces gerente del Príncipe Felipe, se empeñó en otorgarle una subdirección y carta blanca al científico que clonó el primer embrión humano: Miodrag Stojkovic, un fichaje estrella al que algunos investigadores, reconocen ahora, no vieron, ni mucho menos hablaron con él, ni una sola vez. Duró un año. Y a Rubén Moreno le quedaba poco.
La situación del CIPF, debido a la deuda acumulada, a la retirada de ayudas de la Administración valenciana y al coste de funcionamiento de las instalaciones, empezaba a hacer urgente la búsqueda de nuevas formas de ingresos. La solución no era seguir gastando y provocando escándalos (desde 2008 se reprochó a Moreno que las contrataciones no respondieran a las necesidades del Centro para investigar).
Se optó por lo peor: reducir el tamaño sin un plan de viabilidad no económica, sino científica. El Gobierno central y el valenciano se acusaron mutuamente de abocar al CIPF al desmantelamiento y en el intercambio de advertencias que, a fin de cuentas, no es más que una forma de amenazar por las buenas, el conseller de Sanidad, Luis Rosado, dio, por primera vez, una cifra y el alcance de daños.
Si no llegaba más financiación para adaptarse al "nuevo escenario", se ponían en peligro "160 puestos de trabajo y el cese consecuente de toda la actividad científica ligada al proyecto". Tal cual. Los responsables del centro en Valencia cambiaron, la economía también, y todas las reformas que iban a llegar en ningún caso beneficiaban a la comunidad científica.
Bancaja tampoco lo puso fácil. Antes de su integración en el grupo Bankia, la entidad presidida por José Luis Olivas hasta hace solo uno días negó el mismo acuerdo que permitió al Valencia CF poder presentar nuevos presupuestos: adelantar dinero mientras las transferencias de la Administración autonómica llegaban y así poder afrontar compromisos.
En el nuevo modelo de 'CIPF sostenible', en el que la austeridad y la lógica iban a ir juntas, se empezó por cancelar todos los programas de formación, que afectó a becarios con años de estudio y trabajo pendiente para concluir sus tesis doctorales. Los que se beneficiaban de financiación externa salvaron sus proyectos con traslados a otros centros. Los que dependían del Príncipe Felipe, no.
'Una excusa muy bien preparada'
"Aunque hubiéramos sido millonarios, en el centro nunca hubo prioridades", explica el ex presidente del comité de empresa, ex investigador jefe del Laboratorio de Biología Molecular del Cáncer del CIPF y uno de los perjudicados por el ERE, Rafael Pulido.
"Lo trágico es que hablamos de cantidades razonables. La deuda sería un problema si la Comunidad tuviera 40 centros como el CIPF, pero no con uno solo". A los recortes de la Generalitat, de casi 9 millones a 4,4, se sumó la presentación de unas cuentas que proyectaban una constante deficitaria. En palabras de Pulido: "Una excusa muy bien montada para crear plantillas a medida. En ningún caso, ni en una situación de restricción económica estos trucos deberían servir para cometer atropellos" como el del Príncipe Felipe.
Al cerrar una línea de investigación (en el CIPF fueron 14) solo pueden ocurrir dos cosas: trasladarla para continuar con la labor de estudio en un nuevo destino o perder el conocimiento adquirido. Muchos de los 114 despidos que se plantearon con el ERE llevaban aparejada la segunda consecuencia. Los 'liquidadores' del CIPF incluso llegaron a desprenderse de personal que aportaba recursos económicos al centro con posibilidad de seguir renovando las líneas productivas.
"Ahora, con la mitad de la plantilla, quien crea que con un presupuesto reducido al 50% se puede hacer mejor ciencia se equivoca, y esa es la idea que han querido imponer en la nueva dirección", asegura otro investigador del centro.
Tras la caída de Moreno, el centro experimentó un vacío de poder, sin dirección general y sin gerente, hasta que los nuevos administradores se ajustaron al criterio de contratación que obligó a acometer los ajustes: al frente, siempre, un amigo.
El 'milagro' de la empresa privada
La idea de Carlos Pérez Espuelas, encargado de aplicar el ERE, fue que la empresa privada fuera ganando presencia en las instalaciones para obtener beneficio de las zonas en desuso por la salida de gran parte de la plantilla. La elegida fue Oncovision. El acuerdo era sencillo. El Centro Príncipe Felipe arrendaba parte del suelo y la empresa adjudicataria se haría cargo de los gastos. Pero también de los beneficios de su actividad comercial.
Para poder presentar las ofertas a las empresas interesadas, la institución encargó un peritaje para cuantificar el gasto en luz, seguridad, limpieza y el coste, en metros cuadrados, de los laboratorios. Los más de 100 investigadores que todavía hoy trabajan en el CIPF costaban (y costarán) 10.000 euros el metro cuadrado. Sin embargo, para la empresa privada, sale a devolver.
Según fuentes conocedoras del contrato (al que la actual dirección no ha querido referirse a preguntas de ELMUNDO.es porque se trata de una cuestión que ha de "ceñirse a la confidencialidad"), Oncovision paga alrededor de 60.000 euros al año por ocupar un 10-15% del suelo con sus 50 trabajadores. Es decir, no más de 1.000 euros por metro cuadrado: diez veces por debajo de las estimaciones que se les mostró a los 'residentes'. Para hacerse una idea de la dimensión de este maná: mantener operativo el centro costaba, antes del ERE, unos 9 millones de euros. Ahora, tras la limpia, menos de cinco.
Tú también puedes ser científico
Un investigador que desarrolla su labor en el extranjero lo explicaba de esta forma a ELMUNDO.es: "De los creadores de 'ERE en el CPIF, el buque insignia de la investigación valenciana' y 'Ciento y pico jóvenes científicos a la puta calle'; los productores de 'Recortes al sistema de becas y contratos para la investigación' presentamos..."
Tras conocerse el despilfarro y tratar de ponerle freno con la traumática salida de 114 investigadores del CIPF; tras el cierre de líneas de investigación con una incidencia directa en la salud y la calidad de vida de las personas; tras anunciarse la reducción de más de 600 millones en subvenciones y préstamos a la investigación científica por parte del Gobierno central, la Generalitat abrió un portal para, según su declaración, "incentivar en los estudiantes el interés por la investigación y promover su deseo de dedicarse a la ciencia".
España virtual', un puente para unir la geografía e internet
El cambio ha sido grande y muy rápido. En apenas una década hemos pasado de orientarnos con mapas de papel a utilizar navegadores GPS y teléfonos móviles inteligentes que permiten acceder a internet desde cualquier lugar. Localizar una dirección en un callejero o usar una guía de carretera para trazar una ruta forma parte del pasado para muchos usuarios.
"Hemos utilizado mapas durante siglos. Nuestra relación con la geografía se basaba en la memoria y en el papel, pero en los últimos años la tecnología se ha impuesto gracias al desarrollo del GPS, que es increíblemente sofisticado aunque ya estemos acostumbrados, a la digitalización de la cartografía y a las imágenes que recibimos de los satélites. Todo ello unido a internet y a los teléfonos inteligentes ha hecho posible una auténtica revolución geoespacial", afirma Carlos Fernández de la Peña, presidente de España Virtual, una plataforma constituida por centros de investigación, universidades y empresas privadas que durante los últimos cuatro años han trabajado de forma conjunta para que nuestro país forme parte de esa transformación tecnológica.
Tras cuatro años de trabajo, concluye ahora este proyecto CENIT, que ha contado con un presupuesto de 25 millones de euros, y comienza el desarrollo de servicios concretos para ciudadanos y empresas. 'España Virtual' servirá como base para diseñar sistemas que recreen espacios geográficos en 3D con aplicaciones en campos como la educación, el ocio, la telemedicina o la industria, algunas de las cuales serán gratuitas.
"El objetivo era establecer un puente entre el mundo geográfico y las tecnologías de internet, pero no construirlo. Es decir, diseñar las piezas, probarlas, integrarlas y comprobar que es posible avanzar en su construcción. Hemos desarrollado prototipos pero no un producto final", explica Fernández, director de sistemas y redes de Elecnor Deimos, la empresa que ha liderado este proyecto de I+D financiado por el Centro para el Desarrollo Tecnológico Industrial (CDTI).
200 'papers' científicos
La plataforma, que ha generado alrededor de 200 'papers' científicos y unos 40 experimentos, ha logrado sumar el conocimiento que aportan las universidades con la innovación de grandes empresas y pymes. Ahora estas compañías, entre las que figuran también Indra, Androme, GeoSpatiumLab, Designit, Prodevelop o Telefónica I+D, aplicarán estos conocimientos a sus respectivos campos.
Integrar dos mundos tan distintos como la geografía y las tecnologías de internet no ha sido tarea sencilla: "La información geográfica es muy compleja. Es difícil de manejar y procesar, pues tiene volúmenes monstruosos. Para que la imagen pueda verse en un dispositivo como un teléfono es necesario llevar a cabo un proceso muy complejo", señala Fernández, físico de formación.
Además, es muy delicada de manejar: "No te puedes equivocar en un topónimo o en una frontera". Por ello uno de los socios que ha jugado un papel más relevante ha sido el Centro Nacional de Información Geográfica, un organismo que, gracias a España Virtual, cuenta con una de las infraestructuras de datos espaciales más innovadoras del mundo. A través de internet ofrece ya de forma gratuita información geoespacial a todos los usuarios.
La cuarta dimensión
Se han desarrollado infraestructuras para visualizar cartografía a través de la web y obtener mapas de diversas fuentes según las necesidades específicas, buscar imágenes aéreas y de satélite o visualizar entornos en 3D con efectos físicos para dar más realismo (por ejemplo, visualizar la propagación de señales electromagnéticas). Otros sistemas ya existentes, como el español gvSIG (que permite visualizar imágenes en 2D y 3D), ha sido perfeccionado introduciendo mejoras, como la integración de la cuarta dimensión.
'España Virtual' permitirá desarrollar servicios de telemedicina a través de internet. Por ejemplo, los enfermos crónicos podrán consultar con sus médicos a través de videoconferencias. El sistema permitirá, además, conocer de inmediato la posición geográfica del paciente por si necesitara asistencia. Los médicos de guardia también podrán estar disponibles a través de internet para cualquier consulta cuando no sea imprescindible desplazarse al hospital.
La simulación de entornos geográficos en tres y cuatro dimensiones abre la puerta al desarrollo de aplicaciones para el ocio y la enseñanza basados en la realidad virtual. Así, en menos de un año los usuarios podrán disponer de guías turísticas en sus teléfonos que les ofrezcan información sobre el lugar en el que se encuentran, tanto visual como auditiva, o acceder a contenidos interactivos de novelas históricas. Los cursos de idiomas en 3D permitirán al alumno interactuar con otras personas en cualquier momento a través de su ordenador y sumergirse en entornos simulados que hagan más atractivo el aprendizaje.
Fernández cree que la educación es uno de los ámbitos que más resultará beneficiado por estas tecnologías: "Va a vivir una revolución en los próximos años. Estoy convencido de que nuestros hijos no estudiarán como nosotros. Se va a redefinir el concepto de universidad", asegura.
A partir de este fin de semana estaremos comiendo el pescado capturado fuera
Aún no hemos llegado a mitad de año y España ya se ha quedado sin pescado capturado en sus costas. O lo que es lo mismo, hemos consumido ya la misma cantidad de pescado que España es capaz de suministrar durante un año.
Un informe publicado hoy por NEF(New Economics Foundation) y OCEAN2012, en el que participa Ecologistas en Acción, revela que si la población española solamente consumiera pescado de suministro propio, al ritmo de consumo actual se quedaría sin pescado el 25 de mayo, pasando a depender del pescado del resto del mundo a partir del 26 de mayo.
Al al ritmo de consumo actual se agota todo pescado en el primer tercio del año, por lo que quiere decir que más de la mitad del pescado consumido en España viene de fuera de la UE.
El informe 'El Día de Dependencia de Pescado' muestra hasta qué punto los países de la UE están importando pescado y exportando la sobrepesca. España se encuentra entre los países más dependientes, dentro de la UE junto con Portugal (30 de marzo), Alemania (20 de abril), Italia (30 de abril) y Francia (21 de mayo).
Importación de pescado
A pesar de que los recursos pesqueros son un recurso renovable los datos aportados por la Comisión Europea demuestran que estamos capturando pescado de nuestras aguas más rápidamente de lo que puede regenerarse.
La consecuencia directa es que cada vez será más necesario salir a pescar en aguas de otros países y aumentar el volumen de importaciones. Así, cada vez más vamos a capturar pescado en aguas de países de fuera de la UE e incrementamos el nivel de importaciones.
"La UE cuenta con unos de los mayores y más ricos caladeros del mundo, pero no hemos conseguido gestionarlos de forma responsable. Para satisfacer nuestro creciente apetito de pescado, sobreexplotamos nuestros caladeros y exportamos la sobrepesca a otras partes del mundo", ha afirmado Miquel Ortega, coordinador político de OCEAN2012.
Para paliar este problema, Ortega propone "restaurar las poblaciones de peces europeas hasta unos niveles que permitan una pesca sostenible y consumir únicamente lo que podamos pescar de forma segura."
Las organizaciones ecologistas advierten del peligro de que la crisis económica presente la proteccion del medio ambiente como problema en lugar de solución: "Es precisamente en tiempos como éste que los recursos naturales deberían gestionarse mejor para que produzcan más rentas y empleo. Retrasar la restauracion de los recursos pesqueros significa perder capturas, ingresos y empleos", señala declara Aniol Esteban, miembro de nef, de OCEAN2012 y coautor del informe.
Según sus cálculos, los caladeros sobreexplotados suponen una pérdida anual de perdemos 3.000 millones de euros que podrían mantener 100.000 puestos de trabajo. En su opinión, la reforma de la Política Pesquera Común "es una magnífica oportunidad para poner fin a esta sangría de empleo y de dinero."
Por otro lado, el informe pone de manifiesto que el crecimiento de la acuicultura de la UE no ha conseguido compensar nuestra creciente dependencia al pescado procedente de otros lugares.
Desalinizar agua con la tecnología de los pañales de bebés
Hasta ahora se vienen utilizando técnicas de destilación y ósmosis para convertir en agua potable el agua del mar, pero resulta muy caro, entre tres y diez kilovatios por hora por cada metro cúbico de agua dulce que se obtiene, lo que hace inaccesible el sistema allí donde más se necesita, donde el agua es una cuestión de supervivencia. De ahí la importancia del nuevo proceso desarrollado por el Instituto de Tecnología de Alemania (KIT), una prensa de polímeros de bajo coste por la que ya se han interesado varias empresas.
El método desarrollado por Manfred Wilhelm y Johannes Höpfner en este instituto con sede en Karlsruhe, en el land de Baden-Württemberg, ha conseguido ya reducir en más de un tercio el contenido de sal del agua del mar, que contiene unos 35 gramos de cloruro de sodio por litro. "Nos servimos de un hidrogel que contiene partículas super absorbentes que funcionan como filtros. La sal se adhiere a ellas y va siendo eliminada. Ahora estamos volcados en el perfeccionamiento de ese gel y en la optimización del proceso de partículas", explica Johannes Höpfner, convencido de que este sistema permitirá pronto acceso al agua potable a zonas económica y sanitariamente marginadas. "Con acceso libre y barato al agua potable cambiaría el mapa geopolítico del mundo, tal y como lo conocemos hoy".
Las partículas súper absorbentes a las que se refiere son similares a las que usa la industria en la fabricación de pañales para bebés. Se utiliza un hidrogel con base en ácido acrílico, compuesto por polímeros con densidad de carga alta, lo que permite separar la sal del agua, enlazados en forma de bolitas que se hinchan en el líquido y son capaces de absorber 100 veces su masa.
"Al hincharse la red por efecto del agua, la densidad de carga se reduce y la sal penetra el material. Es en ese momento cuando la prensa invierte el proceso, presionando mecánicamente el hidrogel inflado con agua", describe Höpfner.
Hay grandes esperanzas en el proceso de perfeccionamiento que permita elevar el nivel de desalinización hasta que el agua pueda ser utilizada incluso en la mesa. "Tenemos que conseguir que la presión que ejerza la prensa sea menor y así el proceso requerirá de menos energía y resultará aún más barato. Y esto se consigue mediante una densidad química de carga y de red ideal de los hidrogeles", señala este alumno de doctorado que trabaja bajo la dirección del profesor Wilhelm.
"Las bolas de sal son muy duras porque los puntos de enlazado y de carga son muy estrechos y empleamos todavía mucha energía para exprimir el hidrogel", dice. "Estamos en pleno proceso de mediciones y hemos elaborado un proceso de simulación por ordenador, en colaboración con la Universidad de Stuttgart, que nos permite repetir el proceso una y otra vez de forma virtual, abaratando la investigación y acercándonos a los datos reales de energía necesaria para que el proceso funcione a gran escala, puesto que los experimentos reales solo podemos realizarlos con nuestro prototipo, una prensa de medio litro de agua", advierte. A mayor escala, consideran que el mecanismo puede ser movido por una rueda eólica
La investigación tiene fijadas metas a corto medio plazo, de forma que en una primera etapa aspiran a llegar a diez gramos de sal por litro, en una segunda fase a tres gramos y en una tercera a solo un gramo por litro, lo que la convierte ya en agua potable.
Venus pasará entre la Tierra y el Sol el próximo día 5 de junio
El 5 de junio de 2012, Venus pasará por delante del sol visto desde la Tierra, produciendo una silueta que es probable que nadie con vida lo vuelva a ver otra vez.
Los tránsitos de Venus son muy raros, ya que vienen en pares separados por más de cien años. Este tránsito de junio, el segundo de un par que ha comprendido de 2004-2012, no se repetirá hasta el año 2117. Afortunadamente, el evento va a ser ampliamente visible. Los observadores en los cinco continentes, e incluso una pequeña porción de la Antártida, estarán en posición para verlo
El tránsito de casi 7 horas empieza a las 22:09 (UTC) el 5 de junio. El horario favorece a los observadores en mitad del Océano Pacífico, donde el sol estará en todo lo alto durante la travesía. En los EE.UU., el tránsito alcanzará en su mejor momento al atardecer. Eso es bueno, también. Los fotógrafos creativos tendrán una imagen diruna de una hinchada esfera solar roja "pinchada" por el disco circular de Venus.
No mirar directamente
Los expertos aconsejan no mirar directamente al sol. Venus cubre muy poco del disco solar como para bloquear la luz cegadora. En su lugar, utilice algún tipo de técnica de proyección o un filtro solar. Un soldador de vidrio #14 es una buena opción. Muchos clubes de astronomía tendrán telescopios solares para observar el evento.
Los tránsitos de Venus llamaron por primera vez la atención en el siglo XVIII. En aquellos días, el tamaño del sistema solar era uno de los mayores misterios de la ciencia. La distancia relativa de los planetas era conocida, pero no sus distancias absolutas. La respuesta a la pregunta era tan misteriosa entonces como la naturaleza de la energía oscura ahora.
Venus era la clave, según el astrónomo Edmund Halley. Se dio cuenta de que observando el tránsito desde varios lugares de la Tierra debería ser posible triangular la distancia a Venus. La idea impulsó a los científicos que partieron en expediciones a todo el mundo para ver un par de tránsitos en el año 1760. El gran explorador James Cook fue enviado a observar uno de Tahití, un lugar tan ajeno a los europeos del siglo XVIII como la Luna o Marte puedan parecernos a nosotros ahora. Algunos historiadores han llamado a este esfuerzo internacional "el programa Apolo del siglo XVIII".
En retrospectiva, el experimento entró en la categoría de las cosas que suenan mejor que lo que realmente son. El mal tiempo, la óptica primitiva, la natural "confusión" de la atmósfera de Venus y otros factores impidieron a los primeros observadores la recolección de los datos que necesitaban. El momento adecuado para un tránsito tendría que esperar a la invención de la fotografía un siglo después del viaje de Cook. A finales del XIX, los astrónomos armados con cámaras finalmente midieron el tamaño del Sistema Solar como Edmund Halley había sugerido.
El tránsito de este año es el segundo de un par de 8 años. En junio de 2004 nadie vivo había visto un tránsito de Venus con sus propios ojos, y los bocetos dibujados a mano y fotos granulosas de los siglos anteriores apenas los preparaban para lo que iba a suceder. Los modernos telescopios solares capturaron la vista sin precedentes de la atmósfera de Venus iluminado por el fuego solar. Vieron a Venus en tránsito por la corona fantasmal del Sol. 2012 debe ser aún mejor, porque las cámaras y telescopios solares han mejorado.
domingo, 13 de mayo de 2012
El Vesta, de asteroide fósil a embrión de planeta
Nuevas imágenes captadas por el satélite Dawn de la NASA han revelado que el asteroide Vesta, descubierto en 1807 por un médico y físico alemán, es mucho más parecido a la Tierra, a Marte o Venus de lo que se pensaba, por lo que los investigadores que las han analizado creen que podría ser un 'protoplaneta' o, en otras palabras, un planeta embrionario cuyo origen se remonta a los inicios del Sistema Solar.
Los datos de Dawn, cuyo análisis se ha publicado en varios artículos de la revista 'Science', confirman que el Vesta sufrió dos grandes impactos en su hemisferio sur. El satélite, que orbita el asteroide desde julio de 2011, ha enviado más de mil fotografías de su superficie, proporcionando valiosos datos sobre cómo ha sido su evolución.
Uno de los equipos de investigación, del que forma parte Ralf Jaumann, revela que Vesta no es una bola de roca sin más, sino que está lleno de cráteres de todas las formas y tamaños, desde algunos muy pequeños hasta otros gigantescos en su hemisferio sur. Además, tiene grandes canales en torno a la región ecuatorial, grandes montañas y un enigmático material oscuro que se distribuye de forma irregular
Lo que no han encontrado son señales de vulcanismo, como las que buscaba el vulcanólogo David Williams, de la Universidad de Arizona. "Esperábamos que las hubiera por lo que sabíamos de los meteoritos que han llegado a la Tierra y de los modelos previos sobre su formación, pero no la hay, y es una gran sorpresa", señala Williams.
La explicación posible es que ese vulcanismo sólo estuviera activo en los primeros 100 años de la formación del asteroide."Después, su superficie ha sufrido tantos impactos que las huellas de esa posible actividad volcánica han desaparecido", afirma el científico americano.
Composición del asteroide
Su composición también guardaba sorpresa. Como la Tierra o Marte, Vesta contiene materiales basálticos antiguos en la corteza y mucho hierro. Su topografía, con montañas, colinas y canales, son intermedias entre las de un planeta y un asteroide más pequeño, lo que le sitúa en el camino intermedio entre ambos.
Lo más llamativo que ha encontrado Dawn en su superficie es un enorme cráter de 500 kilómetros de diámetro, el 90% del total del diámetro de Vesta, que ha sido bautizado como Rheasilvia. El impacto que lo creo se estima que desprendió el 1% del total de volumen del asteroide.
Otro equipo de investigadores se ha centrado en la descripción geológica de este cráter, para descubrir que en realidad son dos y que el mayor, Rheasilvia, tiene en su centro una montaña más alta que el Everest. En este lugar, se ha detectado material similar a los meteoritos diogenite encontrados en la Tierra. También hay material similar a los meteoritos eucrite y howardite, hallados en nuestro planeta, lo que parece confirmar que Vesta es su fuente originaria.
"Lo normal es ver los planetas o satélites primeros y luego intentar tener muestras geológicas para analizarlas, pero en el caso de Vesta ha ocurrido al contrario gracia a los meteoritos, y ahora hemos conseguido saber que venían de este asteroide", afirma Williams.
Fue el telescopio espacial Hubble el que primero avistó una gigantesca depresión en el polo sur de Vesta, que se atribuyó en un principio a la colisión con un asteroide más pequeño, que ahora han resultado ser dos. Ambos impactos ocurrieron hace 'sólo' entre uno y dos millones de años.
El volcán submarino de El Hierro sigue 'burbujeando' siete meses después
Investigadores del CSIC y del Instituto Geográfico Nacional, con la colaboración de Salvamento Marítimo y de la tripulación del barco 'Salvamar Adhara', han obtenido nuevas imágenes y filmaciones del volcán submarino y del proceso de desgasificación que sigue produciéndose en la zona más somera del edificio volcánico de El Hierro.
Los investigadores han realizado filmaciones repetidas en puntos de control para valorar cualitativamente la evolución del proceso de desgasificación. En estas imágenes, que fueron tomadas el pasado 2 de mayo, se reconocen rocas volcánicas submarinas, algunos conos volcánicos y cráteres.
Las filmaciones, que se vienen realizando de forma sistemática, han permitido al equipo de científicos identificar diferentes tipos de lavas y depósitos volcánicos, así como caracterizar las diferentes zonas del edificio volcánico.
El proceso ha continuado a pesar de que la erupción volcánica submarina que se registraba en el Mar de las Calmas, en la isla de El Hierro, se dio por finalizada, según el comité científico del Plan de Protección Civil por Riesgo Volcánico de Canarias (Pevolca), a principios del mes de marzo de 2012.
El espectáculo cósmico del cielo canario, imagen de la NASA
El cielo es uno de los mayores tesoros de Canarias. Lo sabe bien el astrofotógrafo Daniel López (Paterna del Campo, Huelva, 1976), que ha elegido el archipiélago como base para grabar sus espectaculares vídeos del cosmos, como el que ha sido elegido este martes por la NASA como imagen astronómica del día. Lo habitual es que la agencia espacial seleccione fotografías. En raras ocasiones, como ésta, la sección está protagonizada por un vídeo.
El montaje audiovisual capta el cielo nocturno desde el Parque Nacional del Teide (Tenerife) y desde Roque de los Muchachos (La Palma), donde se ha instalado el Gran Telescopio de Canarias, el mayor instrumento óptico-infrarrojo del mundo.
"Fueron necesarios seis meses para realizar este vídeo. No de intenso trabajo, pero sí de esperar momentos especiales como el de la salida de la Luna llena detrás del Observatorio, una araña que se pasea por su tela mientras la Vía Láctea se mueve detrás, salidas de la Luna deformada por las capas de atmosfera, Venus, La Luna etc.", explica a ELMUNDO.es Daniel López, colaborador del Instituto de Astrofísica de Canarias (IAC).
"El vídeo no consiste en escenas nocturnas grabadas una detrás de la otra. Cada una de ellas está perfectamente pensada y esperando al momento oportuno para poder grabarlas", añade.
Dos vídeos seleccionados
Se trata del segundo vídeo de López difundido por la NASA, que también ha elegido en varias ocasiones fotografías suyas como imagen del día. En la web www.elcielodecanarias.com ha reunido sus trabajos.
Su primer vídeo seleccionado por la agencia espacial estadounidense (y que fue publicado el 16 de mayo de 2011) también recogía imágenes de Canarias, en concreto, escenas nocturnas y diurnas grabadas en el Parque Nacional del Teide.
López, que estudió Ingeniería Técnica Industrial en la Universidad de Huelva, recuerda que empezó a realizar fotos del cielo como aficionado, desde la sierra de la provincia andaluza, a través de pequeños telescopios y con cámaras de fotos. Hace algo más de seis años fue contratado como Técnico de Operaciones Telescópicas en el Observatorio del Teide (IAC), un trabajo que le dio "la oportunidad de usar los telescopios e instrumentación profesional desde uno de los mejores cielos del planeta", recuerda.
"Poco a poco empecé a usarlos en un proyecto para crear un Banco de Imágenes Astronómicas para el IAC. A partir de ahí, empecé a realizar también 'timelapses' astronómicos que resultaron ser muy ilustrativos de lo que ocurre en el cielo. Este tipo de vídeos, unidos a la captación de imágenes astronómicas, suelen ser muy llamativos. Si se realizan desde lugares privilegiados como Tenerife, con su cielo y paisaje, los resultados son muy espectaculares".
"Con la experiencia acumulada durante cuatro años, ahora me dedico por entero a esta rara pero llamativa modalidad, la astrofotografía", afirma López, que no oculta lo orgulloso que se siente de ser la única persona que ha publicado dos vídeos en la NASA, además de las fotos seleccionadas. También es el único astrofotógrafo que ha publicado en la web de la agencia estadounidense utilizando todas las modalidades: cámara sobre trípode, telescopio y 'astro-timelapse'.
Un reconocimiento que, aunque no tiene recompensa económica, le ha permitido difundir su trabajo: "La recompensa es ver cómo tu trabajo da la vuelta al mundo desde el portal más importante sobre astronomía que existe. La repercusión es enorme y, después de publicarlo, sueles recibir cientos de miles de visitas en un solo día y decenas de mensajes desde todos los rincones del mundo. Más de uno pagaría por eso. Es la NASA quien escoge los trabajos que se publican y sólo pueden ser 365 en un año".
Paciencia y planificación
La paciencia y la planificación son fundamentales para dedicarse a este oficio: "Se necesita una noche entera y unos dos días de trabajo con el ordenador para conseguir una escena de unos 10 segundos", afirma López.
"Una sesión normal de trabajo necesita programarse días antes o incluso semanas. Se prepara el material, cámaras, objetivos, grúas o 'sliders' motorizados y se decide con qué es mejor grabarlo. Se elige el sitio y hay que desplazarse con tiempo para encuadrar antes de que la noche nos impida ver el paisaje de nuestro alrededor. Después se ponen a funcionar las cámaras", explica López.
"Realmente lo que se obtienen son una serie de imágenes tomadas una detrás de otra durante cuatro o cinco horas con tiempos de exposición de hasta 30 segundos, la sensibilidad alta y el objetivo muy abierto. Al final de la sesión obtenemos unas 300 o 400 fotos donde se ve el paisaje y el cielo. Esa serie de fotos la llevamos a un programa de edición de vídeos y las convertimos en una secuencia de 10 o 15 segundos, en la que veremos en cuestión de segundo, lo que hemos tardado en grabar casi una noche completa", añade.
Sus trucos de fotografía
El fotógrafo suele trabajar solo y evita utilizar luz artificial: "Suelo trabajar con cámaras de formato completo, las llamadas 'Full-Frame' o FF. En mi caso, la 'Canon 5DII'. Son cámaras en las que puedes subir mucho la sensibilidad (iso) sin que aparezca demasiado ruido o grano, y así poder captar detalles del cielo y el paisaje a la vez y con todo detalle. Además, las cámaras están modificadas sustituyendo un filtro que traen de serie delante del sensor, y que deja pasar solo el 19% de la luz que nos interesa (la que emiten galaxias y regiones de formación estelar), por otro mucho más permisivo que deja pasar hasta el 95% de esa luz o información. Esto permite obtener imágenes del cielo mucho más coloridas y contrastadas".
"Normalmente trabajo en Canarias, en Tenerife o La Palma, que son dos lugares privilegiados para esta técnica de fotografía astronómica", apunta López. Y es que el buen clima del que goza el archipiélago durante casi todo el año, su estratégica localización geográfica (cercana al Ecuador y alejada de tormentas tropicales) y el hecho de que haya varios picos que superan los 2.000 metros sobre el nivel del mar convierten a las islas en lugares muy adecuados para la observación astronómica.
En ocasiones, sin embargo, se desplaza para fotografiar otros lugares: "Para realizar un eclipse de Sol en China o en Rusia hace unos años, hace unos meses para fotografiar auroras boreales en Islandia, o quizá en menos de un mes para realizar un tránsito de Venus delante del Sol en Australia. Digamos que mi campo base está en Canarias y viajo para ver cosas especiales que sólo pueden ser vistas desde otros puntos del planeta".
El 'cisne' visto por el telescopio 'Herschel'
Una caótica maraña de filamentos de polvo y gas conforma la matriz donde se está formando una nueva generación de estrellas masivas, tal y como se puede ver en esta impresionante imagen de Cygnus-X, tomada por el telescopio espacial Herschel de la ESA.
Cygnus-X es una región de formación de estrellas extremadamente activa, ubicada a unos 4,500 años-luz de la Tierra, en la constelación de Cygnus, el Cisne. Gracias a la capacidad de Herschel para captar luz en la banda del infrarrojo lejano, los astrónomos pueden estudiar regiones como ésta, en las que las estrellas fueron calentando lentamente el polvo que las rodeaba, agrupándolo en densos cúmulos en los que se continuarán forjando nuevas estrellas.
Los tonos blancos marcan aquellas zonas en las que no hace mucho que se formaron nuevas estrellas a partir de nubes turbulentas de polvo y gas, como las que se pueden ver en la mitad derecha de la imagen.
En esa región, los filamentos de polvo y gas se entrelazan y colapsan, dando lugar a densos nudos en los que se formarán nuevas estrellas. Por otra parte, la inmensa radiación emitida por las estrellas recién nacidas es capaz de arrastrar el material que las rodea, creando una burbuja a su alrededor.
En el centro de la imagen, la intensa radiación y los fuertes vientos emitidos por las estrellas, que permanecen ocultas a estas longitudes de onda, han calentado y despejado parcialmente el medio interestelar, que brilla en un tono azulado.
La parte izquierda de la imagen está dominada por un gran pilar de gas, cuya forma recuerda al cuello de un cisne.
Cerca de la esquina inferior derecha se puede distinguir una inmensa burbuja de polvo y gas, que parece haber sido expulsada por una estrella supermasiva que se encuentra en su centro, aunque no se pueda ver directamente en esta imagen.
Las hileras de objetos rojos y compactos esparcidas por toda la imagen se corresponden con las semillas, todavía frías, de lo que terminará convirtiéndose en una nueva generación de estrellas.
Esta imagen demuestra la extraordinaria capacidad de Herschel para estudiar el proceso de formación de las estrellas masivas, y de su influencia sobre el medio interestelar que las rodea, con un nivel de detalle sin precedentes en la banda del infrarrojo lejano.
Una Superluna 'achatada' por el horizonte de la Tierra
Los habitantes de la Tierra no han sido los únicos que el pasado fin de semana quedaron deslumbrados por la Superluna que se podía observar en el cielo. También los astronautas de la Estación Espacial Internacional (ISS) quisieron fotografiar el fenómeno y han logrado captar al satélite 'achatado' por el horizonte terrestre.
El tripulante de la Agencia Espacial Europea (ESA), André Kuipers, ha publicado en su cuenta de 'twitter' una imagen de la Luna captada desde el módulo espacial y que ha titulado 'hundimiento de la Superluna en la atmósfera'. Según han explicado los expertos, esta visión se produce cuando el satélite comienza a deslizarse por detrás de la Tierra, y la ISS lo va perdiendo de vista "como en una puesta de sol".
Además, Kuipers ha captado otras imágenes de la Luna brillante sobre el planeta y enmarcada por la negrura del espacio. Del mismo modo, los astronautas han grabado un video de la Superluna en el espacio.
En el momento de las imágenes, la luna estaba a 356.955 kilómetros de la Tierra. Los astrónomos han señalado que podría aparecer hasta un 14 por ciento más grande y un 30 por ciento más brillante de lo que los ciudadanos desde la Tierra lo pudieron observar. En promedio, la Tierra está aproximadamente a 384.400 kilómetros de la Luna.
Así, la Superluna del pasado sábado se produjo cuando la ésta alcanzó su punto de perigeo de mayo -el más cercano que se va a producir en 2012-. La última Superluna tuvo lugar el 19 de marzo de 2011
Descubren el calendario maya más antiguo
Un equipo de investigadores de la Universidad de Boston ha encontrado, en la selva del norte de Guatemala, el que aseguran que es el calendario maya más antiguo documentado hasta la fecha. Los arqueólogos, según publican en 'Science', lo han localizado en las paredes de un recinto oculto en la floresta de la antigua ciudad maya de Xultún.
La construcción fue localizada, por casualidad, por uno de sus alumnos en el año 2010 y han tardado dos años en descifrar qué eran los pictogramas que adornaban sus paredes. Su sorpresa fue mayúscula al descubrir que se trataba de los ciclos de la Luna, el Sol, Venus y Marte, y que adelantaban las fases por las que pasarían en los próximos 7.000 años.
Para el astrónomo Anthoy Aveni, uno de los coautores, este hallazgo echa por tierra la leyenda que apuntaban que este año 2012 llegaría el fin del mundo, según el calendario maya, dado que ahora se sabe que los mayas no ponían fecha límite a los ciclos cósmicos.
Pero, además de los registros de datos, en columnas de números, en el habitáculo se han encontrado las figuras pintadas de varios personajes que podrían tener relación con la familia real o la del escriba, o quizá con ambos. Se desconoce si se trataba de un templo, pero sí se sabe que formaba parte de una edificación grande y que es unos 500 años más antiguos que los códices mayas, escritos en papel, que se encontraron los colonizadores españoles.
Una de las figuras representa a un rey tocado con plumas, que seria el 'Hermano Menor Obsidiana' y otro es el 'Hermano Mayor'.
Los arqueólogos apuntan que para los mayas era muy importante buscar la armonía entre los cambios celestes y los rituales sagrados, e incluso en función de ellos dirigían sus campañas. "Por primera vez vemos lo que pueden ser registros auténticos de un escribano, cuyo trabajo consistía en ser el encargado oficial de documentar una comunidad maya", ha explicado Saturno.
Los arqueólogos reconocen que aún queda por explorar el 99,9% de Xultún, un complejo que fue descubierto hace un siglo, pero que ha sido poco investigado hasta ahora por lo que se cree que oculta muchos otros secretos que darán luz a la historia de los mayas.
viernes, 4 de mayo de 2012
Groenlandia se derrite, pero no tanto como los peores pronósticos decían
Los cambios en la velocidad en la que el hielo se traslada, en más de 200 glaciares, indica que la contribución de Groenlandia al aumento del nivel del mar en el siglo XXI podría ser significativamente inferior a los límites superiores que algunos científicos creían posible, según un nuevo estudio.
"En los últimos 10 años hemos observado un aumento en la velocidad de los glaciares de alrededor de un 30%", ha afirmado la autora principal del trabajo, que ha sido publicado en 'Science', Twila Moon.
Cuanto más rápido es el movimiento glaciares, más agua vierten en el océano. En estudios previos, los científicos estudiaron la contribución del derretimiento del hielo de Groenlandia al aumento del nivel del mar. Habían considerado varios escenarios. En el primero de ellos, los glaciares duplicarían su velocidad, lo que provocaría un aumento del nivel del mar de 10 centímetros. En el peor escenario, con aumento de la velocidad de los glaciares de hasta 10 veces, el nivel del mar subiría hasta 28 centímetros a finales de este siglo.
En el nuevo estudio, los científicos crearon un registro de los cambios en los glaciares de Groenlandia, mediante la producción de mapas de velocidad, a partir de datos del satélite Radarsat-1, de la Agencia Espacial de Canadá, el satélite alemán TerraSAR-X, y el Advanced Land Observation Satellite, de Japón. Comenzaron con el invierno de 2000-01, y luego repitieron el proceso para cada invierno, hasta el 2010-11. Los hallazgos mostraron que los glaciares no habían aumentado su velocidad tanto como predecían los peores modelos.
"En cierto sentido, esto plantea tantas preguntas como respuestas, ya que demuestra que hay mucha variabilidad", afirma Ian Joughin, un glaciólogode la Universidad de Washington.
Los científicos no observaron ninguna indicación clara en la nueva investigación, de que los glaciares dejarán de ganar velocidad durante el resto del siglo, por lo que para el 2100 podrían alcanzar, o superar, el aumento previsto del nivel del mar.
El registro mostró un patrón complejo comportamiento. Casi todos los glaciares más grandes de Groenlandia se mueven a velocidades máximas de 9 a 99 metros por año, y sus cambios de velocidad son pequeños, debido a que se mueven lentamente. Por otro lado, los glaciares que terminan en las plataformas de hielo del fiordo, se mueven a una velocidad entre 300 y 1.600 metros al año, pero no ganan velocidad apreciable en una década.
En el este, sureste y noroeste de Groenlandia, los glaciares que desembocan en el océano pueden viajar 11 kilómetros, o más, en un año. Sus cambios de velocidad varían, pero, en promedio, la velocidad aumenta en un 28% en el noroeste, y en un 32% en el sureste, cada década.
Ropa 'inteligente' para vigilar el estado de salud
La ropa del futuro llevará incorporada sensores capaces de controlar nuestro estado de salud. De forma inmediata, los datos se transformarán en señales eléctricas que podrán ser enviadas a un ordenador o a cualquier dispositivo móvil, como un teléfono, para que las interprete un médico o el propio usuario.
Los llamados tejidos inteligentes están viviendo en los últimos años una gran transformación gracias a los avances en nanotecnología. Y si ya existen prendas con sensores físicos, capaces de medir la temperatura corporal, el ritmo cardiaco o la tensión, el reto ahora es desarrollar detectores químicos que puedan analizar los fluidos corporales, como el sudor y la orina. El investigador argentino Francisco Andrade lidera un proyecto en la Universidad Rovira i Virgili (URV) para crear un tejido inteligente con sensores químicos que, según asegura, podría estar en el mercado en menos de cinco años.
Para Andrade, se trata de un campo en el que queda mucho por explorar: "Con una red de información que abarca ya casi todo el planeta, lo único que falta es obtener información directamente del mundo físico. Podemos enviar imágenes e información, pero si somos capaces de incorporar sensores en la vida cotidiana se puede transformar el planeta en un lugar inteligente", señala en conversación telefónica con este diario.
Pañales con sensores
La ropa que incorpore sensores químicos será útil para deportistas y para cualquier persona que quiera controlar su estado de salud. Pero también puede ser una nueva herramienta para vigilar el estado de los bebés. El grupo de investigación de Quimiometría, Cualimetría y Nanosensores de la URV del que forma parte Andrade trabaja también en el desarrollo de pañales con sensores químicos de creatinina (para analizar la orina) y sensores de trombina (que detectarán sangrados y otras biomoléculas).El sistema alertará a los padres si los resultados sugieren que puede haber algún problema de salud. El precio de estos pañales, que serán desechables, no será un obstáculo, según Andrade, pues el coste de fabricación de los sensores será muy bajo.
La clave está en los nanotubos de carbono. Las fibras de algodón se tiñen en una solución elaborada con una pequeña cantidad de este material, de modo que la prenda conduce la electricidad. Después, se recubre con una membrana polimérica (una especie de barniz con receptores químicos).
De esta forma, el tejido es capaz de detectar las sustancias presentes en el sudor o la orina. Cuando localiza una sustancia en concreto, se genera una señal eléctrica que es monitorizada: "Funciona como una neurona", resume Andrade. Por ejemplo, los datos recabados por el pañal podrían ser enviados al móvil de los padres.
Nanotubos de carbono
Los nanotubos de carbono que se utilizan para elaborar el tinte son estructuras compuestas exclusivamente por átomos de carbono que combinan una serie de propiedades mecánicas y eléctricas inusuales, lo que los convierte en una herramienta muy útil para fabricar nuevos dispositivos y materiales. Se trata de tubos con un diámetro de apenas un nanómetro, es decir, un millón de veces más pequeño que un milímetro. Es el material más duro que se conoce, capaz de soportar cargas muy pesadas y de resistir densidades de corriente eléctrica muy superiores a los cables de cobre.
El investigador subraya que el objetivo a la hora de desarrollar textiles inteligentes no es sustituir a los análisis clínicos tradicionales ni a los médicos, sino ofrecer una nueva herramienta para detectar de forma precoz cualquier problema de Desarrollar sensores químicos es una tarea compleja y aún quedan obstáculos tecnológicos por resolver. Por ejemplo, los científicos investigan un método para lavar estos tejidos sin que pierdan sus propiedades. La solución que han encontrado, de momento, es introducir el nanosensor en tiritas, que son colocadas en la prenda. También pueden colocarse en un botón de la ropa.
El investigador cree que en el futuro se podrán llegar a medir moléculas biológicas, lo que permitirá, por ejemplo, vigilar a distancia el estado de salud de un soldado. Sin embargo, se muestra cauto a la hora de dar plazos para la comercialización de estas prendas: "Hay que diferenciar entre lo que es tecnológicamente posible y lo que va a llegar al mercado", matiza. "Con fibras textiles inteligentes se puede confeccionar una chaqueta con un aspecto convencional que lleva instrumentos de laboratorio. Prácticamente te podrás vestir con un ordenador", asegura.salud
El 'arma' sexual del zancudo de agua para forzar a las hembras
Se deslizan por el agua como si de una pista de hielo se tratara. Y no se mojan. La naturaleza ha dotado a los zancudos (también conocidos como zapateros o patinadores de agua) de unas patas impermeables que les permiten desplazarse con agilidad por las superficies de los estanques y lagos en los que habitan.
Las peculiares características de estos curiosos insectos ('Rheumatobates riley') han intrigado a los científicos, que ahora han descubierto cómo la evolución de sus antenas les ha dotado también de una nueva herramienta para aumentar sus encuentros sexuales y, por tanto, para incrementar su descendencia.
Un estudio publicado esta semana en la revista 'Science' demuestra cómo este apéndice ha evolucionado para llevar a cabo una nueva función: retener a las hembras que se les resisten para forzarlas y copular con ellas. Y es que, según señala a ELMUNDO.es Locke Rowe, uno de los autores del estudio, es frecuente observar sobre las aguas estancadas en las que viven batallas entre los machos y hembras de esta especie antes de copular: "Tanto en los machos como en las hembras ha habido una evolución en algunos de sus miembros para conseguir ventajas en esas luchas".
Según explican los autores que firman esta investigación, un gen responsable del desarrollo de sus antenas y denominado 'distal-less', que también existe en otros insectos, ha evolucionado en los zapateros de agua. Locke Rowe afirma que "la evolución de estos apéndice es común en este grupo particular de insectos, pero muy poco frecuente en otros".
Evolución de la antena
El científico explica que existe una sorprendente diversidad entre las antenas de los machos de las especies de insectos que conforman este grupo, una diversidad que no han detectado en las hembras. En su caso, las antenas Rowe recuerda cómo estudios anteriores sobre zapateros de agua habían mostrado que en las especies en las que los machos tendían a desarrollar estructuras que les permitieran incrementar sus posibilidades de copular, en las hembras también evolucionaban mecanismos que les ayudaran a evitar que lo lograran. Sin embargo, no sabían cuál era la base genética de esos cambios evolutivos. "En el caso de este estudio no buscábamos simples modificaciones, sino un dispositivo sensorial (la antena) que hubiera evolucionado de forma espectacular para agarrar (un apéndice grande, musculoso y dotado de ganchos y pinchos exquisitamente adaptados para sujetar)", explica el científico.
Insectos modificados genéticamente
En primer lugar, los científicos utilizaron vídeos a alta velocidad para observar con detalle de qué forma los machos usan sus antenas durante sus batallas sexuales con las hembras. A continuación, utilizaron una técnica denominada interferencia RNA para reducir gradualmente la expresión del gen 'disal-less' en las larvas de los machos. De esta forma, crearon insectos machos con diferentes tipos de antenas. Desde las más simples, similares a las de las hembras, a antenas más complejas.
El objetivo era recrear la historia evolutiva de estos insectos para averiguar de dónde proceden estos rasgos, establecer cómo han ido transformándose a lo largo del tiempo y su efectividad.
Los machos dotados con antenas que no contaban con una estructura que les permitiera agarrar mostraron más dificultades para mantener su posición sobre la cabeza de las hembras, haciendo más compleja la batalla previa al encuentro sexual. Es decir, sin la antena evolucionada, los machos copulaban menos y, como consecuencia de ello, tenían menos descendencia. Por el contrario, los que contaban con antenas más especializadas fueron capaces de mantener más encuentros sexuales.
En el vídeo que ilustra este artículo se recogen tres encuentros sexuales entre patinadores de agua, aunque sólo se consumó uno de ellos. En el primero aparece un macho con su antena evolucionada, que se acerca a la hembra por detrás y salta sobre su espalda con su antena abierta. Después, la coloca sobre su cabeza, mientras continúa la lucha. Finalmente logra neutralizar a la hembra y comienza la cópula.
En la segunda parte del vídeo el gen 'distal-less' del macho ha sido silenciado, de forma que su antena carece de las estructuras que permiten a otros miembros de su especie agarrar. El insecto se aproxima y salta sobre la hembra por detrás y, aunque intenta enredar la antena sobre la cabeza, no lo consigue. La hembra consigue escapar.
También logra escapar la protagonista de la tercera secuencia. Los científicos habían manipulado el gen responsable de que su antena pudiese agarrar, aunque no completamente. Es decir, sólo lo habían reducido. En este caso, el macho zancudo logra agarrarla pero, tras una breve lucha, ella consigue liberarse y escapa.
Los resultados de este estudio, afirman los autores, ofrecen una ventana para comprender cómo las fuerzas de la selección natural pueden modelar los rasgos sexuales, y las consecuencias reproductivas de estos rasgos.
PUBLICIDAD La Cuenta NÓMINA de ING te devuelve dinerse parecen más a un sensor que a un apéndice que puede ser utilizado para agarrar algo.
Cuatro estrellas que 'engullen' planetas como la Tierra
Gracias a las imágenes conseguidas por el Telescopio Espacial Hubble, de la NASA, un equipo de astrofísicos de la Universidad de Warwick, en Reino Unido, ha descubierto cuatro estrellas enanas blancas, rodeadas de polvo que, según sus conclusiones, son los restos de planetas similares a la Tierra que fueron destruidos hace miles de millones de años.
Los investigadores, dirigidos por Boris Gänsicke, del Departamento de Física, utilizaron los datos enviados por el 'Hubble' para averiguar la composición de ese polvo estelar y lo que encontraron fue oxígeno, magnesio, hierro y silicio, cuatro elementos que componen el 93% de este planeta. Pero lo más llamativo, según explican en un comunicado de su universidad, es que se detectó una baja concentración de carbón, como ocurre en los planetas rocosos del Sistema Solar.
No es la única prueba de que estas estrellas tenían, al menos, un exoplaneta rocoso a su alrededor. Para averiguarlo, también es importante analizar sus atmosferas, en las que predominan el hidrógeno y el helio, lo que provoca que cualquier elemento más pesado sea arrastrado hacia su centro en unos días por la fuerza de la gravedad. Por ello, los astrónomos tienen que observar la fase final de la muerte de esos mundos, cuando su material llueve hacia dentro de la estrella rápidamente: hasta un kilo por segundo.
El momento del banquete
En la atmósfera de la enana blanca PG0843+516, una de las cuatro analizadas, situada a 493 años luz de distancia, han podido detectar una gran abundancia de hierro, níquel y sulfuro. Los dos primeros están en el corazón de planetas como la Tierra, y se sulfuran al ser arrastrados hacia el centro. Por ello creen que están viendo, precisamente, el momento en el que se 'ha tragado' al exoplaneta.
Estas conclusiones se han publicado en la revista 'Monthly Notices of the Royal Astronomical Society'. Gänsicke cree que la destrucción que causó esos discos de polvo en torno a las enanas blancas probablemente será parecida a lo que ocurra en el futuro en nuestro Sistema Solar. "En estas estrellas a cientos de años luz, estamos viendo la foto del futuro de nuestra Tierra", afirma en declaraciones a ELMUNDO.es.
Su hipótesis es la siguiente: "Es una especulación, pero creo que las colisiones entre planetas pueden ser la causa. En nuestro Sistema Solar, se cree que la correa asteroides entre Marte y Júpiter es un remanente de un planeta tipo Tierra que se destruyó. Y también la Luna podría tener su origen en un choque parecido. Este tipo de colisiones pueden suceder en las fases últimas de los sistemas planetarios, cuando las estrellas anfitrión mueren y se convierten en enanas blancas", asegura el astrofísico.
Esa imagen, recuerda Gänsicke, es inevitable porque las estrellas como el Sol, cuando su combustible nuclear se agota, se convierten en gigantes rojas y, cuando esto suceda, dentro de unos mil millones de años, el Sol 'engullirá' a Mercurio y Venus, que son los más cercanos.
"No está claro si la Tierra también será 'tragada' en esa fase, pero aunque sobreviva, su superficie será achicharrada. Además, cuando el Sol se transforme en una enana blanca, perderá mucha masa y los planetas serán expulsados hacia afuera, lo que puede desestabilizar sus órbitas y producir colisiones entre ellos, lo que puede destruir planetas enteros, dejando pedazos como asteroides", augura el astrofísico.
Gänsicke cree que sobrevivirá únicamente Júpiter en el Sistema Solar. "Es factible que en la enana blanca PG0843+516 estemos viendo el aumento de tales fragmentos, restos de lo que fue un exoplaneta.
Para encontrar estas cuatro estrellas, el equipo examinó más de 80 enanas blancas en un espacio de varios cientos de años luz con espectrógrafo del Hubble. "En total, hay como unas 30 que tienen polvo a su alrededor que puede provenir de la destrucción de asteroides y otros cuerpos más grandes", apunta el investigador a ELMUNDO.es.
El nimbadon, un marsupial gigante que vivía en la copa de los árboles
Los nimbadon, unos marsupiales extintos que tenían el tamaño de una oveja y antecesores de los wombat, poblaron las copas de los árboles australianos hace unos 15 millones de años.
El nimbadon, que pesaba más de 70 kilogramos de peso y tenía garras poderosas, era un "animal muy hábil" que "que habría adoptado un método para trepar los troncos de los árboles similar al de los koalas actuales", dijo la jefa de la investigación Karen Black de la Universidad de Nueva Gales del Sur (NSW, por sus siglas en inglés).
Sus descendientes lejanos son los actuales wombat, unos marsupiales terrestres de un metro de largo, con patas cortas y muy agresivos cuando se sienten amenazados.
El nimbadon, que solía movilizarse en manada como el canguro contemporáneo, se alimentaba de frutos localizados en la copa de los árboles de los bosques tropicales australianos y fue un agente importante en la dispersión de las semillas en la era del Mioceno.
Hábil trepador
Su habilidad para trepar por los árboles le permitió al gigantesco marsupial "reducir la competencia por las fuentes de comida con otros herbívoros, entre ellos el canguro, y escapar de sus depredadores como los leones marsupiales", agregó la científica australiana en un comunicado de prensa de la Universidad de NSW.
Black, quien presentará este jueves en Sydney las primeras conclusiones de este estudio, que aún no ha sido publicado, ha trabajado con Aaron Camens, de la Universidad de Flinders, así como Mike Archer y Sue Hand, de la Universidad de Nueva Gales del Sur.
El equipo científico se centró en el estudio una gran cantidad de fósiles de los 'Nimbadon lavarackorum', de todas las edades, hallados hace varios años en una cueva del yacimiento arqueológico Riversleigh, en el noroeste del estado australiano de Queensland.
Estos fósiles permitieron a los investigadores estudiar en detalle el desarrollo del cráneo, del cerebro de estos gigantescos animales y su comportamiento, así como de los cambios ambientales que afectaron el ecosistema australiano en la prehistoria, agregó el comunicado.
Europa buscará vida en las lunas de Júpiter
La Agencia Espacial Europea (ESA) ha anunciado que explorará las lunas heladas de Júpiter en 2030 y durante al menos tres años en busca de restos de vida, a través de su nueva misión, denominada JUICE.
El satélite despegará en un cohete Ariane 5 en 2022 desde el Centro Espacial Europeo de Kurú (Guayana francesa) con dirección al quinto planeta del sistema solar, donde se consagrará al estudio de sus satélites galileanos: Ío, Europa, Ganímedes y Calisto, según indicó la ESA en un comunicado.
Los científicos, que sospechan que Europa, Ganímedes y Calisto, pueden albergar océanos internos, harán que la misión se concentre la búsqueda de restos de vida y que estudie cuáles son las condiciones que rodean la formación de planetas, la emergencia de vida y el funcionamiento del sistema solar.
Además, JUICE analizará la atmósfera y la magnetosfera de Júpiter y la interacción de sus lunas con Júpiter, gigante gaseoso de una masa más de 300 veces superior a la de la Tierra.
"Visitará Calisto, el objeto del sistema solar con el mayor número de cráteres, y efectuará dos vuelos sobre Europa", donde medirá por primera vez el espesor de su corteza helada e inspeccionará los lugares adaptados para una futura exploración "in situ", agregó la ESA.
Océanos subterráneos
A continuación, la nueva misión de la ESA orbitará alrededor de Ganímedes, en 2032, donde estudiará la superficie helada y la estructura interna de esa luna, así como el océano de su subsuelo.
Ganímedes es la única luna del sistema solar que genera su propio campo magnético, recordó la ESA, que precisó que JUICE se dedicará a observar detalladamente sus características.
El director de Ciencia y Exploración Robótica de la Agencia Espacial Europea, el español Álvaro Giménez Cañete, comentó que el nuevo satélite de la ESA ofrecerá una mejor estimación de la manera en que se forman los gigantes gaseosos y los mundos que gravitan a su alrededor, así como de las posibilidades de que éstos alberguen vida".
"JUICE es una etapa necesaria para la futura exploración de nuestro sistema solar externo", aseguró Giménez Cañete.
La misión JUICE (JUpiter ICy moons Explorer) será la primera de gran envergadura seleccionada para el programa Visión Cósmica 2015-2025, tras imponerse a las candidaturas de un nuevo observatorio de ondas gravitatorias denominado NGO y a un telescopio astrofísico de alta energía bautizado como Athena.
NGO y Athena pueden volver a ser candidatas para futuras ocasiones de lanzamiento, precisó la ESA, que recordó que en 2013 se abrirá un segundo concurso para misiones de gran envergadura.
Descubren el gen que 'modeló' el cerebro humano
Investigadores de dos instituciones científicas norteamericanas han logrado detectar la duplicación de un gen en el genoma humano, el SRGAP2, que propició que el cerebro de un ancestro de nuestra especie iniciara su evolución hacia la complejidad que hoy nos hace como somos.
Esa duplicación, un error genético, favoreció, según publican en un artículo en la revista 'Cell', que las conexiones entre las neuronas se ralentizaran, lo que permitió que formaran más filamentos y, por tanto, las redes entre ellas se hicieran más complejas.
Las fechas en las que ocurrió esa duplicación, que fue parcial, coinciden con lo que han contado los fósiles y las herramientas de piedra encontradas en el continente africano: justo hace 2,5 millones de años hubo un cambio en el comportamiento de los ancestros de los humanos y apareció el género 'Homo', capaz de desarrollar una tecnología innovadora.
El hallazgo de la duplicación de este gen no sólo ayuda a entender la evolución humana, sino que podría ser de gran utilidad en el diagnóstico y el tratamiento de enfermedades como el autismo, la esquizofrenia o la epilepsia, que están relacionadas con las conexiones entre neuronas.
Apagón atómico en Japón
Japón quedará sumido mañana en el apagón atómico completo con la detención, por revisión, del último reactor nuclear activo en Japón, el número 3 de la planta de Tomari (Hokkaido, norte), tras la crisis en la central de Fukushima.
La operadora de la central de Tomari, Hokkaido Electric Power, completará la parada del último reactor activo de la planta a las 23.00 hora local (14.00 GMT) del sábado, con lo que Japón ya no contará con ninguna de las 54 unidades atómicas que tenía en funcionamiento antes del accidente.
Desde que el terremoto y tsunami del 11 de marzo de 2011 arrasara el noreste del país y provocara la peor crisis nuclear en la central de Fukushima Daiichi, Japón ha procedido a la parada paulatina, por revisión o seguridad, de todos sus reactores nucleares.
Tras el inicio de la crisis, Japón, que antes del accidente dependía en cerca de un 30% de la energía nuclear, impuso nuevas pruebas de resistencia a los reactores para determinar su seguridad en caso de que se produjera una catástrofe natural similar a la de marzo.
En este sentido, el principal objetivo del Gobierno es poder reiniciar los reactores nucleares que hayan superado los test, ante la preocupación de que se produzca una falta de suministro energético sobre todo en el caluroso verano nipón, cuando se espera que la demanda alcance su tope.
Para poder reiniciar los reactores, el Gobierno del primer ministro, Yoshihiko Noda, pretende contar con el apoyo de las regiones y ciudades que acogen las centrales y que por el momento se han mostrado reacias a la reactivación e incluso, como en el caso de Osaka, tercera ciudad del país, proclives a su desmantelamiento.
Para poder cubrir la demanda sin energía nuclear en ciudades como Tokio, cuya zona metropolitana cuenta con más de 30 millones de habitantes, las operadoras eléctricas han potenciado el uso de las plantas térmicas, lo que ha supuesto un incremento del gasto en la importación de crudo y gas licuado.
El aumento de las importaciones, sobre todo en el sector de los hidrocarburos, ha afectado de manera directa a la balanza comercial del país, que en enero de 2012 registró su mayor déficit en los últimos 33 años.
Opinión de los ecologistas
"Si se puede o no vivir sin nucleares es una pregunta que ya tiene respuesta. Japón, uno de los países más nuclearizados del mundo, acaba de desconectar de la red la última central nuclear que tenía en funcionamiento", asegura Ecologistas en Acción en un comunicado. Esta ONG española es muy crítica con la energía nuclear, a la que considera una opción peligrosa e ineficiente económicamente.
Tras la parada del reactor de Tomari, Japón se surte de electricidad a partir de otras fuentes, sin necesidad de haber construido nuevas centrales, dice la ONG. Y eso a pesar de la gran aportación de las 54 centrales nucleares al sistema eléctrico japonés, que llegaba al 34,5%. Tras el accidente de Fukushima Daiichi, las centrales japonesas han ido parando una tras otra.
Algunas de ellas como la de Onagawa o las propias de Fuskushima definitivamente y otras, en principio, de forma temporal para realizar operaciones de recarga o mantenimiento. Dada la enorme oposición a esta fuente de energía que se ha desarrollado en la sociedad y la desconfianza que se ha generado en torno a las empresas explotadoras de las nucleares, los operadores de los reactores no han obtenido permiso para volver a ponerse en marcha aseguran los ecologistas. De esta manera, Japón se encuentra en el presente sin aportación de las nucleares al mix eléctrico japonés sin que haya habido problemas de suministro en dicho país.
No es algo que deba sorprender. Por su propio funcionamiento, las centrales nucleares son incapaces de regular la producción, por una parte, y por otra, cuando paran lo hacen bruscamente, provocando una caída instantánea de alrededor de 1000MW en la red dicen los ecologitas. Por lo tanto, añaden, es necesario tener preparadas otras centrales, que puedan aportar a la red la potencia necesaria para sustituir los eventuales problemas que tengan las nucleares.
Sin ir más lejos, el año pasado estuvieron parados cuatro de los ocho reactores españoles, en tres ocasiones. Al igual que en Japón, la existencia de las nucleares obliga a tener disponible una potencia térmica fósil – de gas o carbón – de un orden similar, para evitar cortes bruscos de electricidad.
'Oetzi', el 'hombre de los hielos', fue asesinado de un flechazo
Glóbulos rojos hallados en las heridas del llamado 'hombre de los hielos', Oetzi, que vivió hace 5.300 años, confirman que murió a causa de un flechazo, según publica hoy la revista británica 'Journal of the Royal Society Interface'.
Oetzi, bautizado así por la región alpina italiana donde fue encontrado, es la víctima del primer asesinato del que se tiene constancia científica.
Su cuerpo momificado fue hallado en un glaciar entre Italia y Austria en 1991 y hasta ahora se pensaba que, aunque resultó gravemente herido por una flecha que le atravesó su espalda, fue posiblemente rematado de un golpe en la cabeza, que le habría causado la muerte.
Sin embargo, según explicó Albert Zink, líder del equipo investigador del 'hombre de los hielos' radicado en Bolzano (norte de Italia), el estudio de los glóbulos rojos confirma que murió alrededor de los 46 años, por los graves daños que la flecha le causó en las arterias.
"Estos glóbulos rojos tienen la misma morfología que los modernos, por lo que Oetzi no sufría ninguna enfermedad derivada de una alteración en ellos, y nos indican también que la herida de su espalda era fresca, por lo que murió pocos minutos después de recibir el impacto de la flecha", aseguró Zink.
Los glóbulos rojos más antiguos
"Lo más probable es que muriese en el mismo sitio en el que fue encontrado porque no tenemos ninguna prueba de que fuese transportado desde otro lugar", añadió el investigador, que dirige un equipo dedicado en exclusiva al estudio de Oetzi.
Estos glóbulos rojos, encontrados en la espalda y en la mano derecha, son además los más antiguos de los que se tiene constancia.
Su hallazgo "fue una gran sorpresa porque no estábamos seguros de encontrar ninguno. Hemos estado buscándolos durante casi 20 años y es la primera vez que los vemos", afirmó Zink.
Los glóbulos rojos, las células más abundantes en la sangre, suelen degradarse muy rápido y no aparecieron en los escáneres previos realizados al cadáver de Oetzi.
Análisis del tejido de las heridas
Sin embargo, el equipo de Zink analizó ahora muestras de los tejidos que rodean las dos heridas de Oetzi, una en su mano derecha y otra en su espalda, con un microscopio de fuerza atómica.
Esta herramienta nanotecnológica permite escanear la superficie de las muestras y distinguir detalles tridimensionales con una amplificación de varios millones de veces.
Así, hallaron varias estructuras circulares que recordaban la forma de los glóbulos rojos y Zink pudo confirmar mediante una técnica láser la presencia de hemoglobina y otras proteínas.
Este descubrimiento significa que, además del cadáver, también se conservó la sangre de Oetzi en buen estado durante más de 5.000 años gracias a las bajas temperaturas reinantes en el glaciar.
Una visión de la Edad del Cobre
Hallado junto con una colección de ropas y armas, Oetzi ofrece una visión sin precedentes sobre el Neolítico tardío o la Edad del Cobre, que se exhibe desde 1998 en el museo de Bolzano.
Con anterioridad, el equipo de Zink había documentado la presencia de hemoglobina -una proteína presente en los glóbulos rojos cuyo objetivo es transportar el oxígeno hacia los diferentes tejidos del cuerpo- en una herida de su mano. En febrero pasado los arqueólogos revelaron su genoma completo.
Del Jumbo que trasladó el 'Guernica' al primer acelerador de partículas
El primer acelerador de partículas instalado en España, la linterna que iluminó la Torre de Hércules entre 1857 y 1904 o la cabina del Jumbo que trasladó el 'Guernica' a España son algunas de las piezas que se pueden observar en la nueva sede del Museo Nacional de Ciencia y Tecnología (MUNCYT) de A Coruña que este viernes han inaugurado los Príncipes de Asturias.
Ubicado en el edificio 'Prisma de Cristal', un inmueble de singular arquitectura premiado en la IX Bienal Española de Arquitectura y Urbanismo, la nueva sede del MUNCYT en A Coruña complementará a la existente en la antigua estación de Delicias en Madrid, inaugurada en 1997.
La nueva infraestructura, un proyecto con una inversión de 23 millones de euros, mostrará más de 300 piezas de incalculable valor histórico repartidas en seis plantas.
Historia de la automoción
El recorrido comienza en la sala 'miscelánea', donde se recuerda la historia de la automoción con un Citroën 5CV de 1922 y el origen de inventos como la bombilla o el papel burbuja.
Allí se ubica también 'el rincón de las chapuzas', un espacio pensado para que los visitantes destripen electrodomésticos y máquinas como tostadoras o teléfonos para comprender su funcionamiento.
La planta baja alberga también la sala 'Mayúsculas', un espacio para piezas de gran tamaño entre las que se incluye la linterna de la Torre de Hércules, el faro romano más antiguo del mundo en funcionamiento, el primer acelerador de partículas instalado en España, el proyector del Cine París de A Coruña, la primera sala comercial que se abrió en España, o el primer ordenador utilizado en España por Renfe en 1959 que fabricó IBM.
Entre las piezas de más valor destaca el bloque de grafito que formó parte del primer reactor nuclear en cadena construido en el mundo y lleva una placa con la inscripción: 'Graphite from the first chain reactor. Chicago, ILL, 12-2-42'.
Innovación española
En la segunda planta se encuentra la sala 'Patrimonio', una de las más importantes del museo, donde se exhibirán anualmente trece de las piezas de mayor importancia histórica.
En este primer año se pueden contemplar un anteojo acromático de 1760, un astrolabio de madera datado de 1630, una máquina pneumática de 1770, un sextante de 1806 o uno de los fonógrafos de la primera serie creado por Edison en 1878.
La siguiente planta está dedicada a la innovación española e incluye un recorrido por la actividad científica de los profesionales de la ciencia reconocidos con el premio Jaime I, una colección de tubos de descarga fabricados por Mónico Sánchez en la primera mitad del siglo XX. Una galería de retratos de cien innovadores españoles corona este espacio.
La ciencia en el siglo XX
Uno de los lugares más atractivos del nuevo museo se esconde en su parte más alta, la denominada sala 'Iberia', donde se exhibe la cabina del jumbo 'Lope de Vega' -la cual se podrá visitar por dentro- en cuyas bodegas fue trasladado el 'Guernica' de Pablo Piccaso de Nueva York a Madrid en septiembre de 1981.
La última planta del museo, dedicada a exposiciones interinas, cuenta en estos momentos con una muestra sobre la evolución de la tecnología a través de las máquinas de escribir.
En las próximas semanas se abrirá un nuevo espacio, la sala 'siglo XX', en la que a través de 100 objetos los visitantes podrán recordar el pasado más reciente de la ciencia.
La riqueza museística del MUNCYT se traslada a su vestíbulo, presidido por una avioneta de acrobacias Midget Mustang, y a la plaza que recibe a los visitantes con una 'Quimera ferroviaria', un peculiar antecesor del tuneado de vehículos, ya que recrea un híbrido entre de camión y vagón de ferrocarril utilizado para extraer mineral de las minas.
miércoles, 2 de mayo de 2012
Los parques eólicos afectan al clima local
La industria de la energía eólica ha crecido enormemente en los últimos años. En España, esta fuente acaba de superar recientemente su propio récord de producción alcanzando más de un 61% del total de electricidad consumida en todo el país en un momento puntual. Pero este incremento no sólo se ha producido en España. Estados Unidos, por ejemplo, también ha experimentado un rápido aumento de la potencia eólica instalada.
Allí, un grupo de investigadores del Departamento de Ciencias Atmosféricas y Ambientales de la Universidad de Albany (EEUU) acaba de publicar en la revista 'Nature Climate Change' una investigación sobre el efecto de los parques eólicos sobre el clima local. El equipo, liderado por el investigador Yuanlong Hu, demuestra en su trabajo qué las áreas en las que se encuentran las grandes plantas eólicas la temperatura local aumenta hasta 0,72 grados centígrados cada década comparado con áreas en las que no hay instalaciones de este tipo.
Para llegar a esa conclusión, los autores utilizaron datos satelitales tomados desde el año 2003 hasta 2011 de una región de Texas en la que se encuentran cuatro de los mayores parque eólicos del mundo y los compararon con datos de otros lugares. La principal conclusión a la que llegan los investigadores es que la tierra alrededor de los parques eólicos de nueva construcción se calienta más que las áreas adyacentes, pero sobre todo durante la noche.
Datos no extrapolables a otros lugares
Los científicos creen que el efecto es causado por las turbinas que traen aire relativamente cálido a nivel del suelo. Los investigadores utilizaron los datos de los instrumentos MODIS de los satélites 'Aqua' y 'Terra' de la NASA para medir la temperatura del suelo en la región de estudio, antes, durante y después del boom eólico de la zona. El año 2003 marca el inicio de la investigación, cuando apenas había turbinas eólicas en Texas, y 2011 marca la situación final, muy semejante a la actual.
Los investigadores examinaron otros factores que podrían haber afectado los resultados, tales como cambios en la vegetación, pero se demostró que su impacto era demasiado pequeño como para producir el cambio de temperatura observado.
El investigador principal, Liming Zhou, pide que no se extrapolen los resultados obtenidos a otros lugares o para las décadas venideras. "La tendencia al calentamiento observado sólo se aplica a la región de estudio y el periodo de estudio, y por lo tanto no deben extrapolarse linealmente a otras regiones o durante períodos más largos", aseguró a la BBC. "Es probable que, para un parque eólico determinado, el efecto de calentamiento llegue a un límite en lugar de seguir aumentando si no se instalan nuevas turbinas".
"Este artículo es un primer paso en la exploración de la posibilidad de utilizar datos de satélite para cuantificar los posibles impactos de los grandes parques eólicos en el tiempo y en el clima", dijo Zhou. "Ahora estamos ampliando este enfoque a otros parques eólicos y construyendo modelos para entender los procesos físicos y mecanismos que provocan las interacciones de las turbinas con la capa de la atmosférica más cercana a la superficie".
China impulsa su propio 'GPS' con el lanzamiento de dos nuevos satélites
China lanzó este lunes dos nuevos satélites para ampliar la precisión de su sistema de posicionamiento global Beidou / Compass ('Brújula'), al que quiere convertir en una alternativa al GPS estadounidense, según ha informado la agencia oficial Xinhua.
Los dos satélites, duodécimo y decimotercero de la serie Beidou, fueron lanzados desde la base espacial de Xichang, en la provincia central china de Sichuan.
Es la primera vez en la que el país asiático lanza a la vez dos aparatos con un único cohete propulsor.
Se completará en 2020
China tiene previsto lanzar otros tres satélites para su sistema de navegación durante este año, con el fin de completarlo hacia 2020 con más de 30 aparatos en órbita.
El sistema comenzó a operar en diciembre, tras más de diez años de preparación, en la que es una de las apuestas más ambiciosas del país asiático en el sector de la alta tecnología.
El sistema ha sido desarrollado por China para aumentar la información en sectores como transporte, meteorología, prospecciones petrolíferas, control de incendios, prevención de desastres, telecomunicaciones y seguridad pública.
Participa también en 'Galileo'
Pese al empeño de China en tener su 'GPS autóctono', el país participa también en el proyecto simultáneo europeo Galileo con millonarias inversiones.
Otros países, como Rusia, Japón y la India, asimismo están desarrollando sus alternativas al GPS (Global Positioning System), ampliamente utilizado en todo el mundo, incluida China.
La 'máquina del Big Bang' detecta una nueva partícula
Científicos del Gran Colisionador de Hadrones (LHC), el mayor acelerador de partículas del mundo, han confirmado la existencia de una nueva partícula compuesta, según ha informado el Centro Europeo Investigación Nuclear (CERN) de Ginebra y el Centro Nacional de Física de Partículas, Astropartículas y Nuclear (CPAN), ubicado en España.
Tras analizar los datos de colisiones a 7 TeV (teraelectronvoltios) ocurridas en 2011, los científicos del LHC, conocido popularmente como la 'máquina del Big Bang', han corroborado la existencia de esta partícula, un barión. Los bariones son partículas compuestas por tres quarks, como el protón y el neutrón.
El barión hallado es, según los investigadores, inestable y se desintegra inmediatamente, lo que quiere decir que no se puede observar directamente, sino que hay que reconstruir la cadena de desintegraciones desde los productos finales.
Ernest Aguiló, investigador de la Universidad de Zürich y responsable del análisis, ha explicado que de entre los miles de millones de colisiones registradas en 2011 se han encontrado solo 18 colisiones en que esta partícula se ha producido.
Esto da una idea, según los científicos, de la complejidad de los análisis de física realizados con la ingente cantidad de datos obtenida en el LHC.
Según explica Aguiló, la cadena de desintegraciones del barión es muy larga, con cuatro estados intermedios. Lo que se ha detectado son las trazas que provienen de los productos finales, y de ahí, paso a paso, se logró identificar el estado inicial.
Ernest Aguiló se doctoró en la Universidad de Barcelona trabajando en el experimento LHCb. Posteriormente estuvo de postdoc en DZero, uno de los dos experimentos de Tevatron (el acelerador de partículas estadounidense que dejó de funcionar el año pasado). Actualmente trabaja para la Universidad de Zürich en el experimento CMS del LHC en el CERN.
Darwin sigue 'dirigiendo' la evolución humana
¿Ha terminado el proceso de evolución del ser humano? ¿Está la especie estancada debido al efecto de las adaptaciones culturales y del avance de las sociedades? Uno de los grandes debates abiertos entre biólogos y científicos sociales es hasta qué punto las poblaciones humanas continúan experimentando los efectos de la selección natural expuesta por Darwin. Los procesos para el estudio de este campo están perfectamente definidos por la ciencia, pero la falta de bases de datos suficientemente grandes y fiables ha complicado su investigación.
Un grupo internacional de científicos, liderado por investigadores del Departamento de Ciencias Animales y Vegetales de la Universidad de Sheffield (Reino Unido), acaba de presentar un estudio en profundidad del registro de la iglesia luterana de Finlandia para determinar si los cambios demográficos, culturales y tecnológicos acontecidos tras la revolución agrícola afectaron a la selección natural y sexual en la especie humana actual.
La investigación, publicada en la revista científica 'Proceedings of the National Academy of Sciences' (PNAS) ha contado con datos de 5.923 personas nacidas entre 1760 y 1849. Como parece lógico por la época y el lugar en los que vivieron los individuos, la población estudiada se caracterizaba por una monogamia impuesta socialmente. Según citan los propios autores en el trabajo, el registro de la iglesia luterana contenía una completa información sobre la supervivencia, apareamiento y éxito reproductivo de cada individuo.
Independiente de la revolución cultural y tecnológica
Los resultados presentados por los investigadores demuestran que los seres humanos están en constante evolución. "Nuestras conclusiones enfatizan la idea de que los cambios demográficos, culturales y tecnológicos de los últimos 10.000 años no han descartado el potencial de la selección natural y sexual de nuestra especie", aseguran los autores en el artículo publicado en PNAS. El aumento de la supervivencia de individuos debido a los avances en la medicina y en la tecnología no ha conseguido alterar los procesos descritos en el siglo XIX por el padre de la Evolución, Charles Darwin.
La genealogía es muy popular en Finlandia. El país cuenta con algunos de los mejores datos disponibles para la investigación, gracias a los registros detallados de la iglesia en cuanto a nacimientos, defunciones, matrimonios y riqueza. Según afirma el lider de la investigación, Virpi Lummaa, de la Universidad de Sheffield, "estos datos imparciales nos permitieron estudiar cómo evoluciona nuestra especie".
El investigador principal, Alexandre Courtiol, del Instituto de Estudios Avanzados de Berlín, añade que "las características que aumentan el éxito de apareamiento de los hombres tienden a evolucionar más rápido que en las mujeres. Esto se debe a que aparearse con un mayor número de individuos aumenta el éxito reproductivo en mayor medida en hombres que en mujeres", explica. "Sorprendentemente, sin embargo, la selección afecta a las personas ricas y pobres en la misma medida".
Virpi Lummaa asegura que los nuevos avances "no han frenado la evolución de nuestra especie. Hemos demostrado que una selección significativa ha tenido lugar en poblaciones muy recientes, y es probable que siga teniendo lugar, por lo cual, los seres humanos continúan estando afectados, tanto por la selección natural, como por la sexual".
Las raíces del ateísmo
Millones de personas siguen creyendo fervorosamente en un Dios, o dioses, pero muchas otras consideran que la fe religiosa es una superstición arcaica que la humanidad debería superar. Pero, ¿por qué unos creen y otros no? ¿Cuál es la clave que explica la tendencia a aceptar o rechazar la idea de Dios? Un estudio recién publicado por la revista Science ofrece nuevas respuestas a estas preguntas.
Según los autores del trabajo, realizado en la Universidad de Columbia, la raíz del ateísmo es el pensamiento analítico, que contribuye a que disminuyan las creencias religiosas entre quienes las tienen, y confirma el escepticismo de los no creyentes.
"Nuestro objetivo para este estudio fue explorar la cuestión fundamental de por qué las personas creen en un dios en grados diferentes", explicó el autor principal Will Gervais, un estudiante doctorado en el Departamento de Psicología de esa universidad.
"Una combinación de factores complejos influye en materia de espiritualidad personal y nuestras conclusiones señalan que el sistema cognitivo relacionado con los pensamientos analíticos es un factor que puede influir en la pérdida de fe", añadió.
Inducciones experimentales
Para estimular el pensamiento analítico, los investigadores usaron tareas para la solución de problemas y sutiles inducciones experimentales, incluida la imagen de la escultura 'El pensador', de August Rodin, o pidiéndoles que completaran cuestionarios impresos con tipos de letra difíciles de leer.
El equipo de Gervais, que evaluó los niveles de creencia de los participantes con una variedad de medidas, encontró que las creencias religiosas disminuían cuando los participantes estaban ocupados con tareas analíticas, y en comparación con los participantes que estaban ocupados con tareas que no requerían un pensamiento analítico.
Las conclusiones, añadió Gervais, se sustentan en un modelo de psicología humana que se ha usado por mucho tiempo y que se refiere a dos sistemas cognitivos, distintos pero vinculados, en el proceso de información.
Uno de ellos es el sistema intuitivo que opera sobre circuitos mentales que producen respuestas rápidas y eficientes. El otro es un sistema más analítico que toma más tiempo para llegar a respuestas razonadas.
Razonamiento 'versus' intuición
"Nuestro estudio continúa la senda de otras investigaciones anteriores que han vinculado las creencias religiosas con el pensamiento intuitivo", dijo Ara Norenzayan, profesor en el Departamento de Psicología y coautor del estudio.
"Nuestras conclusiones indican que la activación del sistema cognitivo analítico en el cerebro puede socavar el apoyo intuitivo de las creencias religiosas, al menos temporalmente", añadió.
Las diferencias individuales en la tendencia a desechar analíticamente las intuiciones iniciales erróneas durante un proceso de razonamiento aparecieron relacionadas con un creciente descreimiento en materia religiosa. En el estudio participaron más de 650 personas de EEUU y Canadá.
Gervais advirtió de que se necesitan otros estudios que exploren, por ejemplo, si el descreimiento religioso es temporal o de largo plazo, y en qué forma estas conclusiones se aplican a culturas ajenas al capitalismo norteamericano y europeo.
Pero los autores recomiendan "cautela en la interpretación de las implicaciones clave en este estudio", y señalan que se necesitan más estudios antes de llegar a conclusiones definitivas
Cómo reconstruir el clima del pasado a través de las crónicas árabes del siglo X
Las crónicas de los historiadores árabes narran cronológicamente cuestiones sociales, políticas y religiosas; y algunas hacen referencias al clima. Un estudio, liderado por investigadores de la Universidad de Extremadura (UNEX), se ha centrado en antiguos apuntes meteorológicos de la ciudad iraquí de Bagdad.
"Hemos recuperado una interesante cronología de eventos climáticos como sequías, inundaciones, lluvias, heladas, olas de frío o calor, y fuertes vientos para el periodo 816-1009 en los actuales Irak y Siria", dice Fernando Domínguez-Castro, autor principal e investigador en el departamento de Física de la UNEX.
El estudio, que se ha publicado en la revista 'Weather', destaca un alto número de olas de frío. "El periodo de 902 a 944 concentra una frecuencia muy alta, si la comparamos con los datos meteorológicos actuales. Ejemplo de ellos son las seis nevadas que se vivieron en esa época, mientras que en la actualidad solo se tiene conocimiento de una nevada en Bagdad el 11 de enero de 2008", señala Domínguez-Castro.
Más días fríos por erupciones volcánicas
El equipo de investigación se sorprendió en especial con el "inesperado" descenso de las temperaturas de julio de 920. Según los documentos analizados, los habitantes de Bagdad tuvieron que bajar de sus tejados (donde solían dormir en verano), meterse en casa e incluso abrigarse con mantas. Las temperaturas pudieron entonces descender 9ºC respecto a la media actual en un mes de julio.
"Es difícil saber a qué se debe este descenso de la temperatura, pero una posibilidad es la de una erupción volcánica el año anterior, ya que es frecuente que las temperaturas desciendan en verano en estos casos", destaca el experto quien señala que durante alguna de estas noches de julio de 920, las temperaturas no superaron los 18ºC.
Existen dos erupciones volcánicas importantes durante esta época que podrían ser la causa de las olas de frío, "aunque están datadas con una importante incertidumbre", afirma el investigador. Una de ellas es la del volcán Ceboruco (México), hacia 930, y la otra la del Guagua Pichincha (Ecuador), hacia 910. Sin embargo, "son necesarias más evidencias para confirmar esta hipótesis", advierte el experto.
La investigación demuestra que durante la primera mitad del siglo X, los eventos climáticos fríos en Bagdad tuvieron mayor frecuencia e intensidad que en la actualidad. Mientras que la ciudad iraquí registró solo dos días con temperaturas por debajo de 0ºC entre 1954 y 2008, al menos hubo seis días muy fríos en un periodo de 42 años en el siglo X.
Según los investigadores, "las crónicas árabes son muy útiles para la reconstrucción del clima en épocas y lugares de los que sabemos muy poco". Gracias a la sinergia de humanidades y ciencia se puede extraer "información climática robusta", concluyen.
Bagdad, el centro del imperio
En 762, Abu Ja`far al-Mansur, el segundo califa de Abbasid (la segunda dinastía del Islam) fundó la ciudad de Bagdad y la estableció como la capital del imperio. Pronto la urbe se convirtió en la más próspera de su tiempo y en el centro del comercio internacional y el desarrollo agrícola, lo que atrajo a una población creciente.
Los historiadores de la época discutieron las razones por las que el califa le dio tal importancia a Bagdad. Además de su estratégica situación, entre los ríos Tigris y Éufrates, la ciudad contaba con buenas condiciones climáticas. "El agua era abundante, el clima era muy cálido en verano, muy frío en invierno y moderado en primavera y otoño", detalló Al-Ya`qubi, autor de un tratado geográfico de 891.
Marte, un planeta modelado por el fuego
Los científicos han descubierto, gracias a los datos enviados por la sonda 'Mars Express', de la Agencia Espacial Europea (ESA) y la 'Mars Reconnaissance Orbiter', de la NASA, parte de la historia volcánica del planeta vecino. Los datos enviados durante los últimos cinco años revelan que lo que hay debajo de los volcanes, en la región de Tharsis, es lava que se volvió más densa con el paso del tiempo y también se han descubierto valles esculpidos por la lava.
Investigadores de todo el mundo tienen un gran interés en el pasado geológico de Marte porque aún no se tiene la certeza absoluta de que hubiera allí algún tipo de vida en el pasado. De hecho, en la Tierra han encontrado formas de vida que sobreviven en condiciones volcánicas extremas.
En el caso de Tharsis, los datos los recogió la 'Mars Express' cuando sobrevoló este abultamiento volcánico a Unos 300 kilómetros de altura y en datos conseguidos por la 'Mars Reconnaissance Orbiter' de la NASA.
Esta región se cree que tuvo una gran actividad hace entre 100 y 250 millones de años, relativamente poco en una escala de tiempo geológico. Cuando la sonda europea pasa por encima, se desvía de su trayectoria levemente, y esas perturbaciones permiten medir desde la Tierra la densidad de la corteza del planeta.
En esta extensa zona, con un abultamiento importante, se encuentra el volcán más grande del Sistema Solar, el Monte Olimpo, con una altura de 21 kilómetros. La montaña más alta de la Tierra es el Everest, que no llega a los 8,5 km. En línea con él hay otros tres montes más pequeños.
Estos volcanes están formados por basaltos, una composición que concuerda con la de los meteoritos marcianos que llega a nuestro planeta. Su densidad, según los expertos de la ESA, revela que la lava que había debajo en un principio era de poca densidad, lo que se relaciona con la existencia de agua, y luego se cubrió con otras basálticas más densas, para luego cubrirse de lavas basálticas de mayor densidad, material que conforma la capa más externa de la corteza marciana.
Afloramientos de magma
Mikael Beuthe explica, en un artículo en "Journal of Geophysical Research", que las diferentes densidades indican que hubo cambios bajo la superficie de Marte, causados por afloramientos de magma muy caliente desde el interior que se fue desplazando por cada uno de los tres montes de Tharsis, al contrario de lo que ocurre en la Tierra, donde son las placas tectónicas la que se mueven y dar lugar a cadenas de volcanes.
El Monte Olimpo, sin embargo, tendría una raíz subterránea menos densa, dado que se formó en una superficie más rígida y no hundió, lo que indica que el calor no era uniforme en la zona.
Los tres Montes de Tharsis se encuentran sobre el abultamiento de Tharsis, mientras que el Monte Olimpo está ubicado en una de sus laderas. El mayor espesor de la corteza marciana en el centro del abultamiento podría haber actuado como una capa aislante, aumentando la temperatura y provocando la pérdida de rigidez de la litosfera. En este lugar el magma tuvo que interactuar con los materiales que forman el abultamiento, mientras que en el Monte Olimpo sólo tuvo que atravesar la capa de la corteza sobre la que también se asienta el abultamiento. Esto podría explicar las diferencias en la densidad de los volcanes.
Misteriosas espirales
También la 'Mars Reconnaissance Orbiter' de la NASA ha detectado, y así lo ha anunciado esta semana en la revista 'Science', que los Valles Athabasca, situados cerca de su ecuador, son fruto de la actividad volcánica. Hasta ahora había una discusión sobre si su origen era la lava o flujos de agua.
Vista en la distancia, recuerda a la piel de un elefante, con grandes surcos que, según Andrew Ryan y Philip Christensen, tienen largas espirales, de entre cinco y 30 metros de ancho, que no tienen que ver con el hielo. En total, han identificado 269 espirales que atribuyen a la lava, dado que son muy similares a los que hay en la superficie de las islas de Hawai.
Los investigadores también han observado que los Valles Athabasca exhiben señales de fractura y de deriva, sugiriendo que múltiples generaciones de placas estuvieron involucradas en su formación.
Así 'ligan' los grillos
Pese a su diminuto tamaño, los grillos rompen el silencio nocturno con su poderoso canto, una herramienta que utilizan para cortejar a las hembras. Según revela un estudio publicado esta semana en 'Proceedings of the National Academy of Sciences' (PNAS), los machos son capaces de modular el tono de su canto, una característica que podrían utilizar para parecer más atractivos ante sus potenciales parejas.
Los grillos emiten sus repetitivos cantos durante el cortejo frotando sus alas, un movimiento que provoca vibraciones que se convierten en intensos sonidos. De esta forma, las hembras son capaces de localizar a sus pretendientes y determinar cuáles son los más deseables. Y el tamaño es una de las características más valoradas por las hembras a la hora de elegir un macho para procrear, según señalan los investigadores de la Universidad de Bristol (Reino Unido) y del Instituto de Ciencia de la India de Bangalore que firman este estudio.
Hasta ahora los científicos pensaban que cuanto mayor era el tamaño del grillo, más fuerte cantaba y con una frecuencia más baja. Sin embargo, el análisis del comportamiento de ejemplares de grillos de árbol (de la especie 'Oecanthus henryi') ha permitido averiguar cómo la geometría de sus alas es variable, una característica que les permite emitir sonidos desproporcionadamente altos y con una frecuencia variable. En esta investigación, los autores explican cómo estos diminutos insectos logran modificar su canto.
Las hembras grillo tienden a preferir a los machos grandes. Según señalan los autores, la razón más probable es que esto se deba a que los ejemplares de mayor tamaño son potencialmente más capaces de encontrar recursos y utilizarlos. Es decir, su tamaño sería un reflejo de que el insecto presenta ciertas ventajas frente a sus rivales desde un punto de vista genético.
Su canto varía según la temperatura
Hasta ahora se pensaba que el canto del macho dependía de su tamaño, y que los grillos no podían hacer nada para variarlo. Las hembras, por tanto, sólo tenían que escuchar su canto para hacerse una idea del tamaño de su pretendiente.
Sin embargo, posteriormente se descubrió que los grillos de árbol (criaturas diminutas y casi transparentes) cambiaban la altura tonal de su canto ('pitch') según la temperatura ambiente (los sonidos se perciben como más agudos o más graves en función de su altura tonal).
De esta forma, los ejemplares de la especie 'Oecanthus henryi' cantaban con una altura tonal de 3,6 kilohercios (kHz) cuando había una temperatura ambiente de 27º C, mientras que bajaba a 2,3 kHz cuando el termómetro marcaba 18º C. Sin embargo, los científicos no sabían realmente cómo ni por qué se producía este cambio en los sonidos que emiten.
Para averiguarlo, emplearon una sofisticada técnica láser que permite detectar vibraciones y movimientos en superficies diminutas ('microscanning laser Doppler vibrometry').
Intrigante tamaño
Natasha Mhatre, autora principal del artículo, señala que el inusual tamaño de las alas de los grillos siempre les ha intrigado. En este estudio han logrado demostrar que la geometría es clave a la hora de explicar las variaciones en el sonido.
Cuando un grillo canta, sus alas vibran en un rango de frecuencias. Debido a que los grillos son animales de sangre fría, la temperatura influye mucho en su actividad. Cuando ésta aumenta, tienen más energía y cantan más rápido y con una frecuencia más alta. Los sonidos que emite estarían relacionados con velocidad con la que es capaz de mover sus alas.
Según los autores, la capacidad de variar la geometría de sus alas ofrece a estos insectos un amplio abanico de posibilidades, incluyendo la de utilizar su canto para ocultar su tamaño real. Este mecanismo podría permitirles variar su canto de forma voluntaria y con independencia de la temperatura moviendo sus alas a mayor velocidad. Sin embargo, aclaran, esta posibilidad no ha sido estudiada todavía. Según afirman, la razón más probable por la que los grillos varían la geometría de las alas es para producir más sonidos.
sábado, 28 de abril de 2012
Identificación forense en un minuto
Hay varios métodos de identificación forense que tienen la máxima fiabilidad. Cada uno de ellos tiene sus ventajas y sus inconvenientes. La comparativa de huellas no siempre es posible si lo que queda o se encuentra es un esqueleto. Los datos de dientes, en el caso de España por ejemplo, son de carácter privado, lo que hace difícil su obtención, las pruebas de ADN resultan muy caras y no siempre factibles y la técnica de superposición facial tiene mucho trabajo previo y es muy lenta. O al menos lo era hasta ahora. El Centro Europeo de Soft Computing Nieres y la firma asturiana Treelogic están comenzando la distribución en México de un nuevo software, Face2Skull, que permite reducir los tiempos de identificación por superposición facial de 20 horas a tan sólo un minuto.
Face2Skull automatiza todo el proceso hasta ahora manual de asociar un cráneo escaneado en 3D con una o varias fotos. «La superposición craneofacial consiste en ir comparando uno con otro.
Hasta ahora las fotos en papel o luego digitales, de varios planos, se transformaban con un programa de retoque fotográfico para conseguir el mismo plano y la misma ampliación de la foto, y luego comparar puntos específicos de los huesos craneales con los datos gráficos en las fotos. «Lo que tenía que hacer el forense en unos tres días de trabajo, 20 horas, con Face2Skull se hace en un minuto», explica José Ángel Blanco González, director de Gestión de Productos de Treelogic. Gracias a complejos algoritmos matemáticos, el forense queda libre para concentrarse en lo importante, la decisión final sobre la correspondencia entre ambas. El ordenador prueba absolutamente todas las posibilidades, no sólo las que el forense se plantea por su experiencia, y presenta los resultados.
El software actualmente se encuentra en su primera versión y ya se está instalando en México. Las siguientes versiones o mejoras del Face2Skull permitirán contrastar varias fotos de los archivos de desaparecidos con algún cráneo encontrado o encontrar el nombre de los cadáveres en fosas comunes, comparando varios cráneos con una misma fotografía de manera automática y sin intervención humana.
Treelogic se encuentra inmerso también en un complejo programa europeo que tiene como finalidad ayudar todavía más a la decisión del forense, estableciendo una serie de parámetros que fijen la pertenencia de una foto a un cráneo, algo que a día de hoy es responsabilidad de la experiencia y conocimiento de cada forense particular.
Suscribirse a:
Entradas (Atom)