Forofilo

Los avances científicos más destacados del 2015

Desconectado FOROFILO

  • *****
  • 406
  • Sexo: Masculino
  • No confíes en nadie.
    • ForoFilo
Los avances científicos más destacados del 2015
« en: Diciembre 31, 2015, 11:27:33 am »
En 2015 los científicos revelaron sorprendentes avances en diferentes áreas.

Si usted no estuvo al tanto durante este año de los avances más importantes, este es un buen resumen que vale la pena leer para estar bien informado. Al final de cada tema usted podrá encontrar los links para investigar por su propia cuenta.





CRISPR-Cas9


Destacado por la revista Science, herramienta CRISPR-Cas9 es el avance científico más importante del año.

Jennifer Doudna y Emmanuelle Charpentier descubrieron en el año 2012 una herramienta, también descrita como “bisturí molecular” para editar nuestro genoma, que ha cambiado para siempre la biotecnología y la ingeniería genética. Gracias al sistema CRISPR, podemos modificar el ADN de una forma más precisa, eficaz y segura, por lo que se planteó que podría llegar a cambiar la tecnología.

Su descubrimiento fue posible gracias a un proyecto de investigación básica, ya que Doudna y Charpentier estudiaban los mecanismos de defensa que tienen las bacterias ante el posible ataque de los virus. Así fue como hallaron una herramienta que “corta” el ADN de forma eficaz y precisa, pues CRISPR-Cas9 forma parte de los mecanismos de inmunidad adaptativa de los microorganismos.

Una técnica revolucionaria para la edición del ADN del genoma humano con extrema precisión, que ya ha sido utilizado para alterar los genes de "sobrantes" embriones fecundados in vitro humanos en un experimento controversial realizado en China, se trata del avance más científico del año.

La tecnología genética de edición de llamada CRISPR-Cas9 fue votado por los editores de la revista American Ciencia como el avance de investigación más importante de 2015.

La revista británica Nature también citó CRISPR-Cas9, debido a que este mismo año científicos chinos publicaron que habían modificado genéticamente embriones humanos por primera vez gracias a esta tecnología. La revista dijo que junio Jiu Huang de la Universidad Sun Yat-sen en Guangzhou merece reconocimiento por sus audaces pero también altamente controversiales intentos en la edición de la DNA de embriones fecundados in vitro  de humanos con CRISPR-Cas9.

Dr. Huang escogió deliberadamente "sobrantes" de embriones fecundados in vitro que no pudieron desarrollarse en el útero para un experimento para desactivar el gen responsable de la enfermedad de la sangre de beta-thalessaemia. Le dijo a Nature a principios de este año, ademáss advirtió el uso CRISPR-Cas9 en embriones fecundados in vitro viables hasta que fue demostrado ser seguro.

"Queríamos mostrar nuestros datos para el mundo que la gente sepa lo que realmente sucedió con este modelo. Queríamos evitar el debate ético ", dijo.

Sin embargo, cuando surgieron los detalles de la investigación se creó gran preocupación en todo el mundo. Se desencadenó una cumbre internacional en Washington, Jennifer Doudna y Charpentier hicieron un llamamiento a la comunidad investigadora para realizar un debate sosegado sobre las aplicaciones que podría tener CRISPR-Cas9 y la discusión bioética que se generaría.

Esta fue la razón por la que hace solo unas semanas se celebró en Estados Unidos un congreso para reflexionar sobre el impacto de CRISPR-Cas9. Su organización recordó mucho a la famosa conferencia de Asilomar de la década de los setenta, en la que también se analizaron las aplicaciones de las primeras herramientas relacionadas con la ingeniería genética.







Exploración a Plutón


El 14 de julio, la sonda New Horizons, lanzada por la NASA en 2006, realizó su máximo acercamiento a Plutón, a una distancia de 12.500 km.

El máximo acercamiento al controvertido planeta enano Plutón por parte de la sonda espacial New Horizons, supuso el primer reconocimiento inicial de nuestro sistema solar. Plutón, ese pequeño mundo helado, nos ha abierto las páginas de un complejo libro en el que hemos descubierto que su superficie está cubierta por varias capas de hielo de nitrógeno, metano y monóxido de carbono, que en su corteza hay planicies, tanto ligeras como muy escarpadas, así como criovolcanes, también confirman la presencia de una atmósfera con hidrocarburos y una presión de 10 microbares (menor de lo que se esperaba), así como una capa de neblina azulada que lo rodean por completo.

Alan Stern del Southwest Research Institute en Boulder, Colorado (EE.UU.) ha publicado ha liderado un completo estudio sobre Plutón y sus lunas, muestra un planeta con intensos contrastes de color y variopintos paisajes.

“La superficie de Plutón muestra formas diversas de relieve, con terrenos que varían en antigüedad, color, composición y albedos. Hemos encontrado evidencias de una corteza de agua helada, superficies geológicamente jóvenes, convección de hielo, flujo de glaciares, rachas de viento y transporte de compuestos volátiles”

Todo ello indicaría que la superficie de Plutón sería el resultado de diversos procesos geológicos de erosión y reciclaje -fruto de los últimos cientos de millones de años- y que posiblemente aún sigan activos hoy día. “La variada geología de la superficie y esa larga actividad plantean cuestiones fundamentales sobre cómo planetas pequeños como este pueden permanecer activos durante miles de millones de años después de su formación”, comenta Stern.












Agua en Marte


Por medio de imágenes obtenidas con un espectrómetro montado en la sonda Mars Reconnaissance Orbiter (MRO), que orbita el planeta desde hace una década, se detectó la “firma química” que es característica de ciertas sales hidratadas en misteriosas estrías oscuras del terreno marciano, que habían sido observadas en 2011.

Gracias al SHARAD, supimos que el volumen de hielo de agua en el Polo Norte marciano es de unos 821.000 kilómetros cúbicos, algo menos de un tercio de la capa de hielo de nuestra Groenlandia, que los abanicos lobulares derrubios (LDA son sus siglas inglesas) contienen también grandes cantidades de hielo acuoso y que los de Hellas Planitia  probablemente son glaciares cubiertos por una delgada capa de escombros. Y por la labor de la CTX y el CRISM, encontramos en cinco cráteres más hielo de agua, tres de ellos en el cuadrángulo Cenebria, y por la del segundo, la existencia de una decena de minerales en presencia de agua, incluyendo arcillas, rocas con carbonatos alrededor de la cuenca de Isidis en los que la vida podría haber prosperado, sílice y sulfatos hidratados alrededor de Valles Marineris, los mismos sulfatos y minerales férricos en el propio lugar y en Terra Meridiani, y varios más, entre los cuales los hay de la clase en que se formaron con el pH correcto y agua suficiente como para desarrollar vida.

Como otras de las sondas, la MRO ha hallado multitud de depósitos de minerales de cloruro, grandes lagos por toda la superficie marciana, que se pudieron formar al evaporarse aguas minerales enriquecidas, que pudieron albergar vida alguna vez y en los que quizá se hayan preservado sus huellas.

Pero uno de los anuncios que más revuelo causó fue el del posible descubrimiento de flujos estacionales de agua salada en cordilleras marcianas, agua líquida que mana en la superficie de Marte desde finales de la primavera y se desvanece en invierno. Y es que esta posibilidad, como los datos sobre minerales de las que he hablado más arriba, es muy importante para la astrobiología, la ciencia que estudia la presencia e influencia de la vida en el Universo y de al que tanto se ocupó nuestro añorado Carl Sagan.

En cuanto a los avances realizados para la futura misión tripulada a Marte, se ha llevado a cabo un "avance significativo". En este sentido, la agencia espacial nombra la construcción de la nave espacial Orion, el nuevo sistema de lanzamiento de cohetes (SLS), la misión de redirección de asteroides y la mejora del Centro Espacial Kennedy de la NASA en Florida.

Entre sus logros de 2015, la NASA también recuerda su colaboración con Hollywood para estrenar la película 'The Martian'. "Decenas de personas ya están trabajando en muchas de las tecnologías que se ven en la película que necesitarán los astronautas cuando comienzan a explorar Marte en la vida real", ha apuntado Bolden.


Posibles flujos estacionales de agua líquida en el crater Horowitz de Marte






Ceres


Plutón no ha sido el primer nanoplaneta en recibir una visita de una sonda espacial terrestre. En la primavera de 2015 la sonda Dawn, también de la NASA, llegó al planeta enano Ceres, situado en el cinturón de asteroides que hay entre Marte y Júpiter.

Dawn descubrió, cráteres, cadenas montañosas y llamativas manchas claras en la superficie negra del planeta. Posiblemente se trata de agua helada que está al descubierto.

Ceres es demasiado ligero como para tener la misma composición que planetas como la Tierra o Marte. La existencia de agua helada subterránea podría explicar la baja densidad del nanoplaneta. La mancha más clara de Ceres se encuentra en el cráter Occator, que tiene un borde muy escarpado.

En el hemisferio sur del planeta enano, Dawn fotografió una solitaria montaña con forma de pirámide que se eleva seis kilómetros sobre la superficie. Su génesis es un misterio y sus escarpadas laderas están surcadas por franjas claras, como si algo hubiese fluido durante un tiempo por ellas.

Ceres es un planeta fallido, que no llegó a formarse como tal durante la creación del Sistema Solar. "Con la misión Dawn tenemos la oportunidad de contemplar con calma los inicios de nuestro Sistema Solar", explicó Ralf Jaumann, del Centro Aeroespacial Alemán de Colonia.











Encélado


La sonda Cassini descubrió un gran océano bajo la corteza helada de Encélado, uno de los satélites de Saturno. Los científicos sabían desde hace tiempo que bajo el hielo tenía que haber agua, pero las mediciones de la sonda mostraron que el océano subterráneo abarca toda la luna.

Los investigadores sopesan ahora la posibilidad de enviar una misión robotizada para buscar rastros de vida bajo la corteza helada de Encélado.

A finales de octubre y con una temeraria maniobra, Cassini se sumergió, a 50 kilómetros de altura, entre las espectaculares fuentes de hielo de Encélado, que alimentan uno de los anillos de Saturno. En 2016 la sonda pasará en varias ocasiones entre Saturno y sus anillos.


Vapor de agua y compuestos orgánicos emergen desde el polo sur
de la luna de Saturno Encelado, esta imagen fué captada por la nave espacial Cassini de la NASA en noviembre de 2009.








Kepler-452b: NASA descubre el planeta más parecido a la Tierra

Concepto artistico, Kepler-452b tiene un tamaño similar a la Tierra.

El planeta Kepler-452b tiene un diámetro 60% mayor al de la Tierra y su órbita es solo 5 % más prolongada que la de nuestro planeta, o sea que un año en 452b dura 385 días.

Además, la distancia que separa el exoplaneta de su estrella es parecida a la de la Tierra y del sol, lo que permitiría la presencia de agua líquida. Con estas características, algunos científicos consideran a Kepler-452b como un planeta "primo" de la Tierra. "Kepler-452b tiene una estrella muy parecida a nuestro sol", observa María Rosa Zapatero Osorio, astrofísica e investigadora del Consejo Superior de Investigaciones Científicas (CSIC) de España.

Condiciones atmosféricas

Sin embargo no sabemos si el planeta puede tener una atmósfera, si es rocoso o gaseoso. "Pero sí tenemos en mano una estimación de la densidad promedio que tiene este planeta: es similar a la de nuestro planeta. Por este motivo, pensamos que podría tratarse de un planeta rocoso", agrega la especialista del CSIC.

El descubrimiento de Kepler reaviva la esperanza de localizar un planeta donde pueda desarrollarse la vida. Pero todavía no se sabe si Kepler-452b reúne dos condiciones esenciales para el surgimiento de la vida. "Desconocemos si Kepler tiene unas condiciones atmosféricas como las de la Tierra, y si tiene actividad geológica", reconoce María Rosa Zapatero.

Otros datos arrojados por la observación de Kepler indican que el planeta 452b gira alrededor de una estrella que tiene 6.000 millones de años, es decir 1.500 millones de años más que nuestro sol.

Cabe preguntarse, además, ¿cómo pudo ser observado un planeta que nuestra tecnología espacial actual no permite alcanzar? En realidad, no se observa directamente el planeta, sino la ligerísima variación de la intensidad de luz que recibimos de la estrella Kepler 452, cuando el planeta orbita en su alrededor, como cuando una mosca pasa por delante de una lámpara y que cambia la luz de manera ínfima.

Prudencia

El descubrimiento de Kepler-452b es alentador pero varios especialistas incitan a ser prudentes. "Es muy prematuro decir que es un planeta que pueda contener una atmósfera y condiciones para el surgimiento de la vida", precisa Félix Mirabel, especialista en astrofísica, Investigador Superior de CONICET de Argentina y consejero científico del programa de Astronomía del Comisariato para la Energía Atómica (CEA) en Francia.

El programa de observación con el telescopio Kepler concluirá en 2016 pero otros proyectos tomarán el relevo. La misión TESS, dedicada a la observación de exoplanetas tomará el relevo en 2017. Más potente que Kepler, se espera que TESS localice 3.000 nuevos planetas. Los europeos por su parte lanzarán en 2024 el observatorio PLATO para buscar nuevos mundos en el espacio, durante 6 años.











Una vacuna contra el ébola


GINEBRA ¦ 31 DE JULIO DE 2015 - Los resultados de un análisis provisional del ensayo de fase III sobre la eficacia de la vacuna VSV-EBOV (Merck, Sharp & Dohme) realizado en Guinea muestran que la vacuna es altamente eficaz contra el ebola.

El órgano independiente de expertos internacionales —la Junta de Vigilancia de Datos y Seguridad (Data and Safety Monitoring Board)— que llevó a cabo el análisis recomendó que el ensayo prosiguiera. Los resultados preliminares de los análisis de estos datos provisionales se publican hoy en la revista británica The Lancet.

"Se trata de un logro extremadamente prometedor", dijo la Dra. Margaret Chan, Directora General de la Organización Mundial de la Salud. "El mérito es del Gobierno de Guinea, de las personas que viven en las comunidades y de nuestros asociados en este proyecto. Una vacuna eficaz será otra herramienta importantísima para hacer frente al actual brote de ebola y a otros futuros brotes de la enfermedad".

Aunque la eficacia de la vacuna en las personas es por ahora del 100%, se necesitan pruebas más concluyentes sobre su capacidad para proteger a las poblaciones mediante la denominada "inmunidad de grupo". A tal fin, el organismo nacional de reglamentación y el comité de ética de Guinea han aprobado la continuación del ensayo.

4.000 personas en contacto con enfermos han participado en el ensayo

"Este es el regalo de Guinea a África occidental y al mundo", dijo el Dr. Sakoba Keita, coordinador nacional de la respuesta al ebola de Guinea. "Los miles de voluntarios de Conakry y de otras zonas del sur de Guinea, así como los numerosos doctores, gestores de datos y movilizadores comunitarios del país han contribuido a encontrar un escudo contra una terrible enfermedad".

"El método de vacunación ‘en anillo’ utilizado en el ensayo de la vacuna se basa en la estrategia de erradicación de la viruela", dijo John-Arne Røttingen, Director de la División de Control de Enfermedades Infecciosas del Instituto de Salud Pública de Noruega y Presidente del Grupo Directivo de Estudio. "La premisa es que mediante la vacunación de todas las personas que han estado en contacto con una persona infectada se crea un ‘anillo’ de protección y se impide que el virus se siga propagando. Esta estrategia nos ha permitido avanzar a la par de la dispersa epidemia que ha afectado a Guinea y seguiremos realizando esta intervención de salud pública a modo de prueba".

El ensayo de la vacuna en Guinea comenzó el 23 de marzo de 2015 en comunidades afectadas. El objetivo era evaluar la eficacia, efectividad y seguridad de una única dosis de la vacuna VSV-EBOV adoptando una estrategia de vacunación ‘en anillo’. Hasta la fecha, más de 4000 contactos íntimos de casi 100 pacientes de ebola, incluidos familiares, vecinos y colegas de trabajo, han participado voluntariamente en el ensayo.

El 26 de julio se prescindió de la aleatorización en el ensayo con el fin de posibilitar que todas las personas en situación de riesgo recibieran la vacuna inmediatamente y minimizar el tiempo necesario para reunir pruebas más concluyentes con miras a la eventual autorización del producto.

Hasta la fecha, el 50% de los anillos han sido vacunados tres semanas después de la identificación del paciente infectado para establecer un término de comparación con los anillos que fueron vacunados inmediatamente. Esto ha concluido. Además, a partir de ahora se incluirá en el ensayo a niños de entre 13 y 17 años y posiblemente a niños de entre 6 y 12 años, en vista de las nuevas pruebas de la seguridad de la vacuna.

Se ha realizado un ensayo de la misma vacuna en trabajadores de primera línea

"En paralelo a la vacunación en anillo también estamos realizando un ensayo de la misma vacuna en trabajadores de primera línea", dijo Bertrand Draguez, Director Médico de Médecins sans Frontières. "Estas personas han trabajado incansablemente y han puesto en riesgo su vida todos los días para cuidar de los enfermos. Si la vacuna es eficaz, los estaremos protegiendo ya contra el virus. Con una eficacia tan alta, todos los países deberían comenzar inmediatamente a multiplicar las vacunaciones en anillo para romper las cadenas de transmisión e inmunizar y proteger a todos los trabajadores de primera línea".

El ensayo está siendo realizado por las autoridades de Guinea, la OMS, Médecins sans Frontières (MSF) y el Instituto de Salud Pública de Noruega, con el apoyo de una amplia alianza de organizaciones internacionales y nacionales.

"Es un resultado extraordinario que evidencia la fuerza de la colaboración internacional equitativa y la flexibilidad", dijo Jeremy Farrar, Director de Wellcome Trust, uno de los financiadores del ensayo. "Esta alianza también muestra que es posible llevar a cabo una tarea tan esencial en medio de una terrible epidemia. Debería modificar la forma en que el mundo responde a este tipo de amenazas de enfermedades infecciosas emergentes. Tanto nosotros como todos nuestros asociados seguimos plenamente comprometidos a ofrecer al mundo una vacuna segura y eficaz".

"Esta labor sin precedentes marca un punto de inflexión en la historia de la I+D en materia de salud", dijo la Subdirectora General Marie-Paule Kieny, quien dirige la labor de investigación y desarrollo sobre el ebola en la OMS. "Ahora sabemos que la urgencia de salvar vidas puede acelerar la I+D. Aprovecharemos esta experiencia positiva para desarrollar un marco mundial de preparación en materia de I+D, de forma que si en algún momento se produce un nuevo brote importante de cualquier enfermedad, el mundo pueda actuar rápida y eficazmente para desarrollar y utilizar instrumentos médicos y prevenir una tragedia a gran escala".

Nota para los editores:

La vacuna
La vacuna VSV-EBOV fue elaborada por la Agencia de Salud Pública del Canadá. La licencia se concedió a NewLink Genetics, y el 24 de noviembre de 2014, Merck & Co. Inc. y NewLink Genetics Corp. suscribieron un acuerdo de licencia mundial exclusiva por el que Merck asumía la responsabilidad de investigar, desarrollar, fabricar y distribuir la vacuna experimental. Se recibió apoyo financiero de los Gobiernos del Canadá y los Estados Unidos de América, entre otros.

Se optó por un protocolo de vacunación en anillo para el ensayo: algunos de los anillos fueron vacunados poco después de la detección del caso correspondiente y otros anillos fueron vacunados tras un lapso de tres semanas. Se trata de una alternativa a la utilización de un placebo para proporcionar un grupo de control aleatorizado que sirva de término de comparación y al mismo tiempo se garantiza que todos los contactos sean vacunados en el marco del ensayo.

El ensayo fue diseñado por un grupo de expertos del Canadá, los Estados Unidos, Francia, Guinea, Noruega, el Reino Unido, Suiza y la OMS. Formó parte del grupo el Profesor Donald A. Henderson, de la Universidad John Hopkins, quien dirigió el plan de la OMS de erradicación de la viruela utilizando la estrategia de vacunación en anillo.

Asociados
El ensayo de la vacuna contra el ebola en Guinea representa el esfuerzo coordinado de muchos organismos internacionales. La OMS es el organismo regulador del estudio, cuya ejecución corre a cargo del Ministerio de Salud de Guinea, la OMS, Médecins sans Frontières (MSF), EPICENTRE y el Instituto de Salud Pública de Noruega.

El ensayo está financiado por la OMS, con el apoyo de: Wellcome Trust; el Reino Unido; El Ministerio de Relaciones Exteriores de Noruega y el Instituto de Salud Pública de Noruega a través del Consejo de Investigación de Noruega; el Gobierno del Canadá a través de la Agencia de Salud Pública del Canadá, los Institutos Canadienses de Investigación Sanitaria, el Centro Internacional de Investigaciones para el Desarrollo y el Departamento de Relaciones Exteriores, Comercio y Desarrollo; y MSF.

El equipo encargado de realizar el ensayo está integrado por expertos de la Universidad de Berna, la Universidad de Florida, la Escuela de Higiene y Medicina Tropical de Londres, Public Health England y los Laboratorios Móviles Europeos, entre otras entidades.






Homo naledi


El pasado 11 de septiembre se hacía público el descubrimiento de una nueva especie de hominino, Homo naledi, que, por sus características anatómicas únicas, resultaba un firme candidato a ser el «eslabón perdido» entre los últimos australopitecos (aún no humanos) y los primeros representantes del género Homo, al que todos nosotros pertenecemos.

El hallazgo fue hecho en Suráfrica, en lo más profundo de la cueva Rising Star, a unos 50 km. de Johanesburgo, donde en 2013 aparecieron los primeros restos de la nueva especie. En total, y a pesar de que solo se ha explorado una mínima parte del yacimiento, se recuperaron más de 1.500 restos óseos, pertenecientes a quince individuos diferentes, y desde entonces numerosas instituciones científicas de todo el planeta, entre ellas el Museo Nacional de Ciencias Naturales, del CSIC, se fueron sumando al análisis de los huesos.

La variedad de los fósiles hallados es enorme, ya que representan prácticamente todas las partes del esqueleto y pertenecen a individuos de ambos sexos y todas las edades. Una auténtica «golosina científica» a la que muy pocos paleontólogos han sido capaces de resistirse. El problema es que, pese a los esfuerzos de los investigadores y debido a la inaccesibilidad del yacimiento (se trata de una profunda sima en el fondo de una cueva de muy difícil acceso), no ha sido posible llevar a cabo una datación de los restos. De modo que no se sabe si tienen más de dos millones y medio de años (la edad de los autralopitecos) o menos de cien mil, en cuyo caso Homo naledi sería un superviviente arcaico que convivió con los primeros representantes de nuestra propia especie, pero no un antepasado nuestro.

Así las cosas, acaba de aparecer en «Nature Communications» la segunda tanda de estudios relacionados con Homo naledi. Se trata de dos trabajos que hacen hincapié en el análisis de los pies y las manos del homínino y que tratan de dilucidar si eran capaces, o no, de caminar y utilizar las extremidades superiores tal y como lo hacemos nosotros.



Si prescindimos de la falta de una datación y nos fijamos solo en sus características físicas, Homo naledi parece realmente un «eslabón perdido». De hecho, su capacidad craneal (apenas 500 cm cúbicos frente a los 1.200 cm. cúbicos de nuestra especie), junto a las características de su torso y el juego del tórax con la pelvis le acercan mucho a los australopitecos. Pero su dentadura, masticación y estructura de sus manos y pies se parecen mucho más a las nuestras.

Y es en eso, precisamente, en lo que más se han fijado los dos nuevos estudios publicados en «Nature». Juntos, indican que Homo naledi pudo tener una adaptación única que le permitía, al mismo tiempo, trepar y vivir en los árboles y caminar erguido sobre sus dos extremidades inferiores, como nosotros, recorriendo a pie grandes distancias. Sus manos, además, parecen capaces de llevar a cabo las tareas más precisas y delicadas.

Según los investigadores, las conclusiones de los dos estudios, tomadas en conjunto, indican una fuerte disociación entre las funciones de los miembros superiores e inferiores de Homo naledi, y proporcionan una serie de importantes pistas de cómo pudieron ser la forma y las funciones que caracterizaron a los esqueletos de los primeros representantes del género Homo.

Los pies, modernos



William Harcourt-Smith es el autor principal del estudio titulado «Los pies de Homo naledi». Y se basa en los 107 huesos de pies de la nueva especie hallados en la cueva surafricana, entre los que se encuentra un pie derecho adulto y perfectamente conservado. El análisis de esos fósiles muestra que los pies de Homo naledi comparten numerosas características con los del hombre moderno (nosotros), lo que indica que estaba perfectamente adaptado para permanecer erguido y caminar sobre sus dos piernas. Los autores, sin embargo, señalan que la curvatura de los huesos es mayor de la que ostenta nuestra especie.

«Fue todo un viajero de largas distancias -afirma Jeremy Desilva, coautor de la investigación-, con un pie muy arqueado, cuyo dedo gordo no le permitía coger objetos pero con sutiles diferencias respecto a los seres humanos de hoy». Dasilva, que ya había descrito los pies de Australopithecus sediba, un precursor de los humanos que vivió en Africa hace unos dos millones de años, asegura que el pie de Homo naledi «podría ser similar al de Homo erectus. Este es el primer humano con proporciones similares a las nuestras, con piernas largas y brazos cortos. Pero al mismo tiempo, el cerebro de Homo naledi es mucho más pequeño que el de Homo erectus y sus hombros y dedos curvados se parecen a los de Lucy (un australopiteco). Es una nueva combinación de rasgos que no habíamos visto antes».

Las manos, únicas



El segundo estudio, liderado por el paleoantropólogo Trcey Kivell, describe las manos de la nueva especie basándose en los cerca de 150 fósiles encontrados de esta parte del cuerpo, entre los que, de nuevo, figura la mano derecha de un adulto casi completa y del que solo falta un hueso de la muñeca.

La mano de Homo naledi revela una combinación única de rasgos que nunca se habían apreciado en ningún otro fósil humano. Los huesos de la muñeca y el pulgar, por ejemplo, muestran características anatómicas compartidas con las de especies mucho más modernas, como los Neandertales, o incluso la nuestra. Y sugieren que Homo naledi era perfectamente capaz de agarrar fuertemente objetos con sus manos y de utilizar herramientas de piedra.

Sin embargo, los huesos de los dedos de las manos están más curvados que en la mayoría de los fósiles de especies humanas primitivas. Y se parecen más a los de Lucy (un Australopithecus afarensis), lo que sugiere que también podían utilizar sus manos para trepar cómodamente a los árboles. Esta mezcla de características propiamente humanas con otras mucho más primitivas demuestra que Homo naledi estaba «doblemente especializado» y era, por lo taanto, capaz de combinar el uso de herramientas complejas con la locomoción arborícola.

«La adaptación de la mano de Homo naledi para el uso de herramientas, en combinación con su pequeño cerebro, tiene interesantes implicaciones sobre qué necesidades cognitivas son realmente necesarias a la hora de fabricar y utilizar herramientas -afirma Kivell-. Y, dependiendo de la edad que resulten tener estos fósiles, Homo naledi podría haber sido el autor de las antiguas herramientas de piedra que hemos encontrado ya en Suráfrica».

Los resultados de ambas investigaciones parecen confirmar, pues, que el lugar evolutivo de Homo naledi está, precisamente, en la transición de australopitecos a humanos. Solo falta que los científicos sean capaces de hallar un método de datación que sea aplicable y que permita asignar a los fósiles una edad concreta. Solo así sabremos si estamos, o no, frente al auténtico «eslabón perdido» de la Humanidad.











El Pentaquark


El pentaquark fue descubierto en julio pasado por el experimento LHCb, del CERN, y anunciado el dia 14. Es la unión de un barión y un mesón. Pero antes ha sido necesario duplicar la potencia del LHC hasta 13TeV (3 junio 2015). Se discute si es una nueva partícula.

Los científicos del mayor acelerador de partículas mundial anuncian el hallazgo de una nueva molécula, cuya existencia fue predicha hace unos 50 años, compuesta por 5 partículas-quarks elementales. Toda la materia que conocemos se organiza a nivel subatómico de diferentes maneras. Los protones y neutrones están formados por 3 quarks.

Otro tipo de ensamblaje es el de los mesones, formados por pares de quarks, hechos de materia y antimateria. El experimento LHCb ha permitido encontrar una nueva variante formada por 4 quarks convencionales y un antiquark, hecho de antimateria: 2 quarks up (arriba), un quark down (abajo), un quark charm (encanto) y su anti-partícula el anti charm. Es un hadrón formado por 5 quarks. Desde hace 5 meses los del CERN se encontraron con datos, que apuntaban a la existencia de una nueva partícula, o compuesto. Los datos del pentaquark han sido publicados por Physical Review letters.

El primero en proponer la existencia de mesones y bariones, hace 50 años, fue Murray Gell-Mann, lo que le valió el premio Nobel de Física 1969. La materia ordinaria está compuesta de protones y neutrones, de los que estamos hechos, dice Guy Wilkinson, del CERN. Probablemente, añade, no haya un solo tipo de pentaquark, sino varios, y ahora toca buscarlos durante la presente ronda de experimentos en el LHC. El afirma que el pentaquark no es una nueva partícula, sino una forma de agregar quarks. Es una resonancia exótica de vida corta, con trayectoria circular, una partícula resonante, que a continuación se desintegra.

El quark estándar

Es la única partícula fundamental, que interactúa con las 4 grandes fuerzas fundamentales del Universo. Se parecen a los gluones en peso y tamaño. Son partículas de espín ½, o sea, son fermiones. Forman junto a los leptones la materia visible. Hay 6 tipos distintos de quarks:

Up (arriba)
Down (abajo)
Charm (encanto)
Strange (extraño)
Top (cima)
Bottom (fondo)

Además hay los correspondientes anti-quark. Los quarks extraño, encanto, fondo y cima son muy inestables, pero los fisicos pueden recrearlos. Los arriba y abajo se mantienen, y se distinguen por su carga eléctrica. No hay quarks aislados, sino que forman parte de los mesones y bariones (los hadrones).En el siglo XIX con el éxito de la teoría atómica llegamos a creer que los átomos eran los constituyentes últimos de la materia, nos equivocamos, son los quarks.

El átomo está formado por un núcleo y una nube electrónica, muones y neutrinos, y el núcleo a su vez, está formado por protones y neutrones, y estos, a su vez, por quarks.

El quark exótico

El objetivo más preciado del CERN es encontrar una física más allá del modelo estándar, que describe las leyes físicas que gobiernan la energía y la materia conocida. El nuevo hallazgo no llega a tanto, aunque es de gran importancia. El modelo de quarks propuesto hace 50 años no excluye la posibilidad de que existan compuestos formados por más de 3 quarks. Pero estos hadrones exóticos empezaron a dar muestras de existencia hasta hace pocos años. El pentaquark ha sido descubierto observando los productos de colisiones entre bariones y viendo las partículas resultantes. Así han desvelado la existencia de estados intermedios de la materia, que indican la existencia de una nueva molécula.

Con el LHC colabora un grupo de la Universidad de Santiago de Compostela, otro de la Universidad Ramón Llull, la Universidad de Barcelona y el Instituto de Física Corpuscular IFIC, CSIC y la Universidad de Valencia. Para Juan Saborido, investigador, el descubrimiento del pentaquark no implica física más allá del modelo Estándar, pero es un hallazgo muy importante para entender la estructura de los hadrones. Ahora el gran misterio es cómo se sostiene el pentaquark, cómo están unidos sus 5 componentes con fuerza fuerte o débil, o bien es el producto de la unión de un barión y un mesón. El mismo LHCb en abril 2014 demostró que la partícula Z está compuesta por 4 quarks.

El pentaquark es un modo de agrupar los quarks, los constituyentes fundamentales de protones y neutrones, de una forma nunca vista en tantos años de experimentación. Nuestro conocimiento de la estructura de la materia cambió radicalmente en 1964, cuando Murray Gell Mann propuso que el tipo de partículas conocidas como bariones (protones y neutrones) está compuesto por 3 objetos de carga eléctrica fraccionaria, llamados quarks. Y que el otro tipo: los mesones, están formados por pares de quarks y antiquarks. El pentaquark es un estado ligado, cuyo contenido de quarks es de 5.Como si un mesón (2 quarks) y un barión (3 quarks) pudieran formar un estado ligado. Un simil es la molécula formada por distintos átomos.

Los investigadores de LHCb han examinado la desintegración del barión Lambda b en 3 partículas: J-psi, un protón y un kaón con carga eléctrica. El estudio del espectro de masas de las 2 primeras partículas J-psi y un protón reveló la existencia de estados intermedios, que sugieren el pentaquark.

Las colisiones a 13TeV de hadrones producirá resultados, para esclarecer la física del pentaquark.Nuestros conocimientos del pentaquark son fragmentarios, necesitamos que el LHC continue observándolos.









La espeluznante acción a distancia de Einstein


Según la teoría cuántica, la observación de un objeto puede afectar justo en ese preciso momento a otro, aunque este se encuentre en la otra punta del universo, un fenómeno que el mismo Albert Einstein no creía, al considerar que no es posible que ninguna información pueda viajar más rápido que la luz. Sin embargo, un equipo de científicos dirigido por el profesor Ronald Hanson de la Universidad Técnica de Delft (Holanda) junto con el Instituto de Ciencias Fotónicas de Barcelona (España), lograron que dos electrones separados más de un kilómetro de distancia mantuviesen una conexión ‘invisible’ e instantánea, detectando esta “acción fantasmagórica” que negaba Einstein.

Los complejos detalles del estudio se publicaron en la revista Nature, pero en esencia, el experimento ha consistido en ‘entrelazar’ a dos electrones atrapados en dos diamantes, que estaban en laboratorios alejados a 1.280 m de distancia, y después registrar la orientación de su spin o giro. El entrelazamiento es una misteriosa propiedad cuántica para ‘poner de acuerdo’ a las partículas.

Cuando se observaron los electrones en el experimento, estas partículas se orientaban de forma aleatoria, pero, sin embargo, ambas parecían entenderse muy bien. De hecho, tan bien, que es imposible que hayan tenido orientaciones preestablecidas, como sugería Einstein que podría pasar.

Este comportamiento de ‘entendimiento’ solo es posible si los electrones se comunican entre sí, algo muy sorprendente si estaban a casi 1,3 km de distancia. Además, las mediciones se hicieron de forma tan rápida que no hubo ni tiempo para que los electrones pudiesen transmitir información entre ellos, ni siquiera con una señal viajando a la velocidad de la luz.

Esto pone en duda el denominado ‘realismo local’ de Einstein, el que postula que el universo obedece a leyes, no al azar, y que dos objetos suficientemente alejados no pueden interactuar entre sí, solo individualmente por su entorno inmediato. Pero las orientaciones de los electrones estudiados son reales, así que estas partículas se han comunicado de alguna manera, y lo han hecho más rápido que la luz.

Y para excluir la posibilidad de que existan las variables ocultas de Einstein, los científicos han tenido que resolver o cerrar a la vez dos loopholes, algo que no se había logrado hasta ahora. Uno es el de detección, para tener una muestra estadísticamente significativa de correlaciones entre las partículas. Era imprescindible un ratio superior al 75% y se ha conseguido el 80%, con 245 ensayos exitosos.

El otro es el vacío o loophole de localidad, para descartar que las partículas y los detectores estén tan cerca que puedan comunicarse (por eso se separaron más de un kilómetro) y garantizar que existe aleatoriedad en los datos.

Tecnología española en el experimento

Para resolver este aspecto, el equipo de científicos de Delft buscó ayuda en los investigadores del Institututo de Ciencias Fotónicas (ICFO) de Barcelona, quienes tienen el récord en haber desarrollado un equipo que genera los números aleatorios cuánticos más rápidos hasta la fecha.

El ICFO diseñó un par de ‘dados cuánticos’, que produjeron un bit aleatorio extremadamente puro para cada medición realizada en el experimento. Los bits se produjeron en unos 100 nanosegundos, el tiempo que tarda la luz en viajar únicamente 30 metros, y por tanto un tiempo insuficiente para que los electrones puedan comunicarse entre sí.

“Los dos laboratorios se separaron una distancia de 1,3 km, de tal manera que la información (que puede viajar como mucho a la velocidad de la luz) tardaría unos 400 microsegundos en llegar al otro laboratorio. En este tiempo deben realizarse todas las medidas, si no, el loophole de localidad no se cierra”, explica a Sinc Carlos Abellán, investigador en el Instituto de Ciencias Fotónicas (ICFO) y coautor del estudio.

"Y Delft nos pidió ir más allá de la frontera de dispositivos de última tecnología en generación de números aleatorios. Nunca antes un experimento ha requerido de números aleatorios tan buenos y en tan poco tiempo", destaca el científico.

A nivel práctico, Abellán señala que el sector más beneficiado por el estudio es el de la criptografía cuántica: “En los últimos años se está avanzando para que la seguridad se pueda garantizar de manera totalmente independiente al equipamiento que se use. En otras palabras, si el espía que quisiera robar nuestra información fuera el fabricante de nuestro ordenador, no hay nada que este pudiera hacer para hackearnos”.

Por su parte, otro de los autores, el profesor Morgan Mitchell del ICFO, añade: "Trabajar en este experimento nos empujó a desarrollar tecnologías que ahora definitivamente podemos aplicar para mejorar la seguridad en las comunicaciones y la informática de alto rendimiento, u otras áreas que requieran de números aleatorios de alta calidad y a una velocidad muy alta".

En cualquier caso, el experimento de Delft ha refutado de forma casi perfecta la visión del mundo de Einstein sobre que 'nada' viaja más rápido que la luz, e incluso su famosa frase: "Dios no juega a los dados". Al menos uno de estos supuestos debe estar equivocado, y el universo parece que es mucho más extraño de lo que podemos percibir. De hecho, las leyes que lo gobiernan podrían regirse por el azar, por el lanzamiento de dados.

Einstein dijo que “Dios no juega a los dados” y Bohr le contestó “Einstein, deja de decir a Dios lo que tiene que hacer”. La discusión entre Einstein y Bohr, y otros físicos que defendían la mecánica cuántica, fue muy interesante. ¿En qué quedaron estas discusiones más próximas a la filosofía que a la física? En la mayoría de estas discusiones Einstein se inventaba un experimento mental que, en su opinión, demostraba que la mecánica cuántica no funcionaba. Experimentos mentales elegantes, profundos y muy creativos. Pocos físicos cuánticos eran capaces de encontrar fallos en los argumentos de Einstein. El resultado más famoso de estas discusiones fue la llamada paradoja EPR, por un artículo que Albert Einstein publicó en 1935 junto con Boris Podolski y Nathan Rosen. El argumento EPR demostraba que una teoría cuántica no puede ser local, es decir, en apariencia hay información que se transmite de forma instantánea, a una velocidad mayor que la velocidad de la luz en el vacío. El argumento es el siguiente. Generemos dos fotones en un estado cuántico entrelazado (es decir, para saber el estado del primero hay que saber el del segundo y viceversa) y separémoslos una gran distancia. El medir el estado del primer fotón se sabe de forma instantánea el estado del segundo fotón, incluso si una señal luminosa en el vacío no puede transmitir esta información en la distancia que les separa. En apariencia el proceso es instantáneo. Bohr no fue capaz de responder de forma satisfactoria al argumento EPR, pero parecía que era imposible verificar de forma experimental si la física cuántica tenía razón o si la tenía Einstein. Hasta que un físico norirlandés, John Stewart Bell, propuso en 1964 un experimento para dilucidar la cuestión. Su trabajo consistió en encontrar una expresión matemática, una desigualdad entre los resultados probabilísticos de un experimento, que se cumplía si Einstein tenía razón, pero que se violaba según las leyes de la física cuántica. El primer físico en realizar el experimento de Bell fue el físico francés Alain Aspect en el año 1982. Pero los experimentos cuánticos son muy complicados y el experimento de Aspect, así como otros posteriores, no está libre de ciertos resquicios (en inglés loopholes) que impiden estar seguro al 100% que Einstein estaba equivocado. Ha costado más de 30 años, pero esta semana se ha publicado en la revista Nature lo que aparenta ser el primer experimento de tipo Bell libre de resquicios. El entrelazamiento cuántico entre dos electrones situados en dos laboratorios separados 1,3 km de distancia en el campus de la Universidad Técnica de Delft (Holanda) se ha demostrado fuera de toda duda. Todos los resquicios (loopholes) han sido eliminados. Este trabajo en el que ha participado el Instituto de Ciencias Fotónicas (ICFO) de Barcelona se puede considerar la prueba definitiva de la física cuántica, un experimento de Bell sin ningún resquicio conocido.










Nuevos detalles del interior de la tierra


Las observaciones sísmicas nos han dado pistas sobre la naturaleza de las estructuras que forman una región muy concreta: el límite entre el núcleo metálico de la Tierra y su manto de silicatos. Un área cuya composición es clave para entender la evolución y la dinámica de nuestro planeta, y que se sabe contiene restos de placas que se originaron cerca de la superficie de la Tierra, así como zonas de composición y mineralogía bastante desconocidas.

Ahora, un equipo de científicos del Instituto Tecnológico de California ha obtenido nuevas pruebas que ayudan a dilucidar el origen de las características tan especiales que se intuyen en esta zona límite entre el núcleo y el manto terrestre.

“Hemos descubierto que la bridgmanita, el mineral más abundante de nuestro planeta, es un candidato bastante probable para ser el material que ocupa esas regiones – explica Jennifer Jackson, co-autora de este trabajo que se publica en la revista Journal of Geophysical Research: Solid Earth. “Se extendería aproximadamente por el 20% de esta zona, y subiría hasta una profundidad de 1.500 kilómetros… ¡en total un volumen similar al de nuestra luna!”, afirma la investigadora.

Para demostrar su hipótesis, los científicos han simulado en laboratorio las condiciones extremas que tienen lugar en el interior de nuestro planeta. En concreto, las mediciones se tomaron con rayos X sobre muestras de bridgmanita sintética comprimidas a una presión atmosférica más de un millón de veces superior a la de la Tierra y calentadas a miles de grados centígrados. Esta información permitió a los investigadores comparar los resultados con las observaciones sísmicas realizadas en la región límite entre manto y núcleo.

“Estas medidas realizadas simulando las condiciones de las aguas profundas del manto nos revelan que es probable que esta zona sea densa y rica en hierro, y esto ayuda a que la bridgmanita permanezca estable”, explican los investigadores. Para comprobarlo, midieron el comportamiento del hierro en una estructura cristalina de bridgmanita, encontrando que la estructura se mantuvo estable a condiciones extremas de temperatura y presión.

Además, los autores indican que no parece que en esta zona haya elementos radiogénicos, ya que desestabilizarían la estructura, hecho poco probable cuando los análisis demuestran que esta área tiene cientos de millones de años de antigüedad. “Todavía hay mucho trabajo por hacer”, reconocen los investigadores. “Es necesario identificar la dinámica de esas placas de subducción detectadas, pues creemos que tuvo un papel importante a la hora de dar forma a esas grandes regiones de bridgmanita”.


Ejemplo de bridgmanita calentada por láser en laboratorio

Diferentes escenarios de las regiones de bridgmanita que se exploraron.
El escenario de la derecha coincide más estrechamente con las limitaciones geofísicas del manto inferior





El sistema linfático también actúa en el cerebro



Hasta ahora se sabía que por goteo se filtraba el líquido cefalorraquídeo para eliminar los desechos. Pero hallaron que los vasos sanguíneos funcionan como tuberías rápidas para drenar los residuos. Creen que podría aprovecharse para combatir el Alzheimer o el Parkinson.

Investigadores del Centro Médico de la Universidad de Rochester (EE.UU.) hallaron un nuevo sistema de drenaje por el que el cerebro elimina los desechos.

Según el estudio publicado en Science Translational Medicine, el sistema actúa como si fueran tuberías que aprovechan los vasos sanguíneos del cerebro y parecen llevar adelante la misma función en el cerebro que el sistema linfático en el resto del cuerpo: drenar los productos de desecho.

El autor principal del artículo y codirector del Centro de Neuro-medicina de la Universidad de Rochester, Maiken Nedergaard señaló que "la limpieza de residuos es de vital importancia para todos los órganos y desde hace mucho tiempo tenemos preguntas sobre cómo se deshace el cerebro de sus residuos".

"Este trabajo demuestra que el cerebro se está limpiando de una manera más organizada y en una escala mucho más grande de lo que se había creído en el pasado", dijo Nedergaard que expresó su deseo de que este hallazgo sirva para tratar enfermedades cerebrales.

"Tenemos la esperanza de que estos resultados tengan implicaciones para muchas condiciones que afectan al cerebro, como lesiones cerebrales por traumatismo, la enfermedad de Alzheimer, derrames cerebrales y el mal de Parkinson", explicó.

El equipo de Nedergaard llamó al descubrimiento como "el sistema glinfático", ya que actúa de manera similar al sistema linfático, pero está gestionado por las células del cerebro conocidas como células gliales.

El equipo hizo el descubrimiento en ratones, cuyos cerebros son muy similares al del hombre, recordaron los expertos.

Los científicos ya sabían que el líquido cefalorraquídeo tenía un papel importante en la limpieza del tejido cerebral y que era el encargado de llevar los productos de desecho y los nutrientes a ese mismo tejido cerebral a través de un proceso conocido como difusión.

El sistema que acaban de descubrir circula por todos los rincones del cerebro de manera más eficiente, a través de lo que los científicos llaman el flujo global.

"Es como si el cerebro tuviera dos recolectores de basura: uno lento que conocíamos y uno rápido que acabamos de conocer", dijo Nedergaard.

"Dada la alta tasa de metabolismo en el cerebro y su gran sensibilidad, no es de extrañar que sus mecanismos para deshacerse de los residuos sean más especializados y amplia que se creía", agregó.

Los expertos explicaron que el sistema de limpieza que se conocía hasta ahora funciona más como un goteo que filtra el líquido cefalorraquídeo a través del tejido cerebral, mientras que el nuevo sistema funciona bajo presión, empujando grandes cantidades de ese líquido a través del cerebro con más fuerza.

"Comprender cómo se las arregla el cerebro con los residuos es fundamental. En cada órgano, la remoción de desechos es tan básica como la forma en que los nutrientes son suministrados. En el cerebro, es un tema interesante porque en todas las enfermedades neurodegenerativas -incluyendo el Alzheimer- los desechos proteicos se acumulan y eventualmente sofocan y matan con el tiempo la red neuronal del cerebro", explicó Jeffrey Iliff, otro de los científicos que participó del estudio.






Secuenciado el genoma de 'El Hombre de Kennewick'


Los resultados del análisis de la secuencia del genoma del Hombre de Kennewick indican que tiene gran similaridad con los nativos americanos modernos. El estudio, liderado por Eske Willerslev, director del Centro de Excelencia en GeoGenetics de la Universidad de Copenhague (Dinamarca), se publica hoy en la edición on line de la revista Nature.

El Hombre de Kennewick está datado hace 9.000 años, por lo que es uno de los esqueletos más antiguos que se conocen. Fue hallado en 1996 en un banco del río Columbia cerca de la localidad de Kennewick, en el estado de Washington (EE UU).

Descartada la conexión polinesia

Los estudios iniciales de su morfología indicaban que este individuo no estaba relacionado con los nativos americanos y se pensaba que podía estar conectado con grupos como los ainu y los polinesios.

Sin embargo, estos indicios parecen desmentirse con la secuenciación del genoma en la que se ha empleado ADN de un hueso de la mano. Cuando el equipo comparó los resultados con el genoma de estos pueblos del Pacífico, los resultados fueron negativos.

De entre las tribus nativas de las que se dispone de datos genéticos, algunas como las Tribus Confederadas de la Reserva de Colville podrían ser descendientes de este homínido. 

Según señalan los autores, la secuenciación de nuevos grupos de indios americanos podría llevar al descubrimiento de nuevas especies que desciendan del Hombre de Kennewick.

Los Nez Perce, Umatilla, Yakama y Wannapum reclamaron los restos

El Hombre de Kennewickes el nombre con el que se denominó a un esqueleto prehistórico encontrado en un banco del río Columbia cerca de Kennewick, Washington hace 19 años. Su descubrimiento fue accidental: una pareja de espectadores de las carreras anuales de hidroplanos encontró su cráneo mientras observaba las carreras.

Los restos se vieron envueltos en discusiones entre arqueólogos y los defensores de los derechos religiosos de los nativos americanos. Blandiendo el Acta de Protección y Repatriación de las Tumbas de los Nativos Americanos, cinco grupos de nativos (Nez Perce, Umatilla, Yakama, Wannapum y Colville) reclamaron los restos como suyos, para ser enterrados según la tradición. Sólo los Umatillas continuaron con su petición en la corte. En febrero de 2004 La corte decidió que aún no se encontraba un enlace cultural entre las tribus y los restos, permitiendo realizar más estudios científicos.

En julio de 2005, científicos de EE UU se reunieron en Seattle durante diez días para estudiar los restos, haciendo mediciones detalladas y determinando la causa de la muerte.

¿Estos indoeuropeos fundaron la civilización norteamericana conocida como Clovis?

Clovis Pointe

Tanto la aparición como la desaparición de la cultura Clovis sigue siendo un misterio. La presencia de esta cultura única es atestiguada en decenas de sitios arqueológicos en las Grandes Planicies de América del Norte, donde fueron encontradas herramientas de piedra en contacto con los restos de huesos de grandes animales extintos gigantescos: mastodontes, bisontes prehistóricos… Las fechas son suficientemente precisas para decir que la civilización apareció allí hace 11.500 años, y de repente desapareció 500 años más tarde, casi al mismo tiempo que los grandes animales prehistóricos en América del Norte .

La cultura Clovis se caracterizó por unas muy sofisticadas herramientas de piedra, puntos de corte de piedra a ambos lados, en forma de hojas, puntas de marfil de mamut, los palillos de hueso doble bisel decorado escotilla, llaves de torsión que podrían ser utilizadas para recuperar lanzas. Estos objetos son muy similares a las herramientas del Solutrense , las más elaboradas de todo el Paleolítico Superior y cuya fabricación requiere mucha habilidad, sobre todo en lo que respecta a la técnica de trabajo del silex, también trabajan en hueso y madera.

El antropólogo Vance Haynes, encontró muchas similitudes entre herramientas y objetos que se encuentran en Clovis, y los de restos arqueológicos centroeuropeos de Francia y Ucrania, incluyendo una datación de una nueva tumba de 11.000 años, cerca del lago Baikal en Asia.

Algunos antropólogos norteamericanos no dudan en sugerir que esta tecnología del hombre de Kennewick, que parece haber aparecido de repente en medio de América del Norte, fue importada por el hombre de Cromagnon . Habrían llegado al nuevo continente diez mil años antes que Colón a través del puente de Beringia. Los conflictos, el hecho de ir buscando caza, o tal vez simplemente el deseo de descubrir, habrían empujado a estos grupos humanos a emigrar.







Compuestos opiáceos a partir de levadura genéticamente modificada

Levadura creciendo en una placa de Petri / Sthephani Galanie

JUEVES, 13 de agosto de 2015 (HealthDay News) -- Los científicos dicen que han modificado genéticamente la levadura de cerveza para crear analgésicos narcóticos potentes.

Los analgésicos en cuestión se llaman opiáceos, e incluyen medicamentos que contienen opiáceos como la morfina, Oxycontin y Vicodin, cuya fuente más habitual es la amapola del opio.

Pero la nueva tecnología podría evitar el uso de la amapola, lo que llevaría a métodos más rápidos y posiblemente más baratos de creación de muchos tipos de medicamentos basados en las plantas, según el equipo de la Universidad de Stanford.

"Se trata solamente del principio", dijo la autora principal del estudio, Christina Smolke, profesora asociada de bioingeniería. "Las técnicas que desarrollamos y demostramos para los analgésicos opiáceos [narcóticos] pueden adaptarse para la producción de muchos componentes derivados de las plantas para combatir cánceres, enfermedades infecciosas y afecciones crónicas como la hipertensión y la artritis".

Pero el hallazgo tiene un posible inconveniente: los narcóticos "caseros" podrían aumentar una vez que esta tecnología se vuelva fácilmente reproducible.

Otros laboratorios han estado trabajando en la producción de opiáceos sin amapola. En mayo, un equipo de la Universidad de California, en Berkeley, publicó un estudio en la revista Nature Chemical Biology describiendo todos menos uno de los pasos de un proceso para usar levadura genéticamente modificada para convertir el azúcar simple en morfina.

En este nuevo estudio, el equipo de Stanford reprogramó la genética de la levadura de cerveza normal (usada durante miles de años para hacer fermentar el pan) de modo que las células del organismo que crecen con rapidez podían convertir el azúcar en hidrocodona, un analgésico que se encuentra en el Vicodin, en solamente de 3 a 5 días. Informan sobre su proeza en la edición en línea del 13 de agosto de la revista Science.

En la actualidad, puede llevar más de un año producir estos medicamentos, explicaron los investigadores. Esto es así porque las amapolas son cultivadas en granjas con licencia, cosechadas, procesadas y enviadas a las fábricas, donde se refina el material hasta convertirlo en medicamentos, explicaron los investigadores.

"Cuando empezamos a trabajar hace una década, muchos expertos pensaban que sería imposible manipular la levadura para reemplazar todo el proceso desde la granja a la fábrica", dijo Smolke en un comunicado de prensa de la Stanford.

Y no va a ocurrir enseguida que los narcóticos se fabriquen a partir de la levadura en laboratorios ilegales, dijo el equipo de la Stanford. Eso se debe a que, ahora mismo, se necesitarían 16,655 litros (4,400 galones) de levadura a fin de producir una sola dosis de medicamento analgésico, dijo el equipo de Smolke.

Pero creen que el nuevo estudio es una prueba de principio de que esa levadura puede usarse para hacer medicamentos complejos a partir de plantas. Stanford ha patentado la nueva tecnología, y Smolke y su equipo han formado una compañía.

Esperan que la tecnología se vuelva más eficiente en el futuro, y ahí es donde se podría requerir una salvaguardia, dijo Smolke.

"Deseamos que haya un proceso de deliberación abierto para unir a los investigadores y los legisladores", dijo. "Necesitamos opciones que contribuyan a asegurarse de que la producción de componentes medicinales con base biológica se desarrolle del modo más responsable".

En mayo, en el momento en que el descubrimiento de Berkeley se reportó, unos expertos que escribieron en la revista Nature Chemical Biology ofrecieron directrices para proteger la producción de opiáceos basados en la levadura de los criminales.

Según un grupo dirigido por Kenneth Oye, director de políticas y prácticas del Centro de Investigación de Ingeniería Biológica Sintética del Instituto de Tecnología de Massachusetts (MIT, por su sigla en inglés), esas salvaguardias deberían contar con 4 puntos clave:

La manipulación de cepas de levadura para que resulten menos atractivas a los criminales. Se pueden diseñar para producir solamente opiáceos con un valor limitado en la calle. O podrían fabricarse de tal modo que sea tan difícil de procesar que no merezca la pena hacer el esfuerzo. Las cepas de levadura productoras de opiáceos también podrían incluir una marca de agua de ADN para hacer que las fuerzas del orden las puedan rastrear más fácilmente.
Reforzar la seguridad sobre las cepas de levadura que producen narcóticos, parecida a la que se usa ahora con los analgésicos recetados.
Asegurarse de que las compañías de síntesis de ADN evalúan todos los órdenes para las secuencias de ADN, vigilando las que podrían usar los criminales para generar levadura que produce opiáceos.
Extender la leyes actuales de narcóticos para que cubran las cepas de levadura que produce opiáceos.
"Tenemos algo de tiempo, de modo que tomemos un momento ahora para llegar a modos que faciliten la protección de la salud pública", dijo Oye a HealthDay en ese momento.






Cuestionando los estudios psicológicos

Sólo 39% de los estudios analizados por 270 investigadores pudieron ser replicados.
El resto tenían datos dudosos.

En abril de 2015 se ha dado por finalizado uno de los proyectos de investigación psicológica más ambiciosos, consistente en someter a pruebas de replicación un total de 100 estudios originales en Psicología. De los 100 experimentos sometidos a estas pruebas, sólo se han replicado 39, es decir, 61 estudios no han conseguido ser replicados, aunque con algunas matizaciones, ya que de estos 61 estudios que han dado resultados negativos, los investigadores han considerado que 24 de ellos obtenían resultados “moderadamente similares” a los originales (es decir, presentaban el mismo patrón de resultados que el estudio original, aunque sin alcanzar el nivel de significación estadística convencional).

La revista Nature se ha hecho eco de estos primeros resultados, que aún se encuentran bajo el proceso de revisión de pares en la revista Science, a través de un artículo titulado First results from psychology’s largest reproducibility test.

El proyecto al que pertenece este estudio, denominado “Reproducibility Project: psychology” (Proyecto de Replicación: Psicología), supone el mayor esfuerzo de colaboración entre diferentes equipos de investigación repartidos a lo largo del mundo, con el objetivo de replicar trabajos originales en Psicología. Dichos trabajos han sido seleccionados por denuncias previas de fraude, limitaciones en los análisis estadísticos o por su interés como experimentos clásicos en este campo. Dentro de esta reciente línea de trabajo por la replicación de resultados en Psicología se enmarca también el proyecto ManyLabs, del que ya se informó en Infocop (ver aquí), y en el que se reprodujeron con éxito los resultados de un total de 10 de los 13 experimentos originales seleccionados.

En este nuevo proyecto, iniciado en el año 2011, han participado 270 científicos de todo el mundo, que han tratado de reproducir las principales conclusiones de una muestra de artículos publicados, en el año 2008, en tres revistas principales sobre Psicología (Journal of Personality and Social Psychology, Psychological Science y Journal of Experimental Psychology: Learning, Memory, and Cognition), constituyendo el primer proyecto de replicación sistemática en Psicología de esta envergadura.

Los diferentes equipos de investigación a los que se encomendó la tarea de replicar los estudios originales siguieron un protocolo estructurado en el que los experimentos, los análisis estadísticos, los tamaños de las muestras y los criterios de replicación estaban establecidos previamente. El Proyecto fue dirigido por el Centro de Ciencia Abierta (Center for Open Science) en Charlottesville (Virginia, EE.UU.), mediante un sistema abierto y accesible online.

Tal y como era de esperar, los resultados, dados a conocer en el artículo de la revista Nature, han abierto el debate en torno a la fiabilidad de las conclusiones en Psicología. Para algunos autores, y según se recoge en el citado artículo, estos resultados ponen en evidencia que la Psicología tiene un problema grave de replicación. “Muchos de los científicos que trabajan dan por sentado que si algo se publica es que es correcto”, ha afirmado Hal Pashler de la Universidad de California en San Diego, lo que dificulta la identificación de “falsos positivos” que se dan en la literatura psicológica.

No obstante, el texto también recoge la opinión contraria de otros investigadores, como la de Daniele Fanelli de la Universidad de Stanford en California, que advierte que en realidad la Psicología no se queda por detrás de otros campos de estudio, como la Biología del cáncer o la Farmacología, donde el éxito en la replicación de resultados es incluso menor.

Asimismo, y según señala Brian Nosek, uno de los psicólogos que lidera el proyecto, hay que tener en cuenta la dificultad que entraña determinar hasta qué punto se ha fallado en el proceso de replicación del estudio original. Para este investigador, no hay una manera simple o estándar para contestar si un estudio ha sido replicado 100% o no. Y es que los equipos no siempre pueden replicar exactamente los experimentos originales, siendo las variaciones, en algunas situaciones, inevitables. Tal es el caso de un estudio israelí que planteaba como escenario un compañero que tenía que faltar al trabajo por causa de baja por maternidad o servicio militar y que investigadores de EE.UU. replicaron utilizando como causa de baja una boda o una luna de miel. Otras variaciones se deben a los materiales o recursos electrónicos empleados… En definitiva, “las categorías rígidas, del todo o nada, no son útiles”, afirma Greg Hajcak, psicóloga clínica de la Universidad de Stony Brook en Nueva York y autora de uno de los estudios que no ha sido replicado, pero cuyos resultados obtenidos han seguido el mismo patrón que el estudio original, aunque no han alcanzado el nivel de significación estadística convencional. Por otro lado, además de estos problemas que se plantean en la replicación de los estudios, la revista Nature alude también a la existencia de posibles sesgos en la interacción entre los equipos de investigación y los autores originales de los estudios replicados.

En cualquier caso, y aunque parece que todavía queda mucho camino por recorrer, la comunidad científica muestra su acuerdo en considerar la importancia de ampliar nuestro conocimiento sobre los problemas de replicación en Psicología y de continuar invirtiendo esfuerzos en esta dirección, ya que esta línea de trabajo permitirá que la disciplina se vea fortalecida. A este respecto, algunos investigadores plantean que es necesario incorporar cambios para que la replicación se generalice y esté patente en todas las revistas científicas psicológicas.






Primera fotografía de la luz como partícula y onda a la vez

La luz en la imagen simultaneamente muestra interferencia espacial y cuantización energética

Durante algún tiempo, hemos sabido que la luz es tanto onda como partícula; se comporta como una o como la otra. No obstante, verlas al mismo tiempo no es cosa fácil. Por décadas, los científicos han estado tratando de observar directamente estás dos características. Ahora, finalmente lo han hecho. Por primera vez, científicos han capturado una imagen de esta dualidad.

Aunque la mecánica cuántica nos dice que la luz actúa simultáneamente como partícula y como onda, hasta ahora, solo habíamos sido capaces de observar sus propiedades de onda, o de partícula… solo podíamos verla como una u otra. Sin embargo, gracias a un nuevo y sorprendente enfoque, científicos de la École Polytechnique Fédérale de Lausanne (EPFL) en Suiza nos han dado una nueva visión de la física que yace en nuestras experiencias cotidianas. En el trabajo publicado en Nature Communications, han anunciado que fueron capaces de observar propiedades tanto de partícula y onda en la luz. El equipo de investigación, liderado por Fabrizio Carbone, usó electrones para capturar una imagen de esta naturaleza.

¿Cómo lo hicieron?

Los científicos usaron un pulso de láser que dispararon hacia un diminuto nanotubo metálico para así observar el sello de la luz comportándose tanto como partícula y como onda al mismo tiempo. Esto fue posible ya que, como la Universidad de Oregon recalca, un láser es un aparato que produce un haz de luz muy intenso de un solo color (este haz puede ser tan intenso como para vaporizar los materiales más duros y resistentes). Debido a esto, el láser permitió a los científicos proporcionar energía a las partículas cargadas en el nanotubo, haciéndolas vibrar y moverse.

La luz viaja a través del tubo en dos direcciones posibles, y la clave del experimento reside en el encuentro de dos ondas de luz. Cuando dos ondas que viajan en direcciones opuestas se encuentran, forman una nueva onda que, por un momento, se ve cómo si estuviera estática. Ésta onda resultante es el centro del experimento.

En seguida, el equipo tomó ésta onda estacionaria de luz y la bombardeó con un haz de electrones cerca del nanotubo para capturar la imagen de la onda. Como EPFL señala, “los electrones interaccionaron con la luz confinada en el nanotubo, quienes se aceleraron o se frenaron. Usando el microscopio ultrarrápido para tomar la posición en donde este cambio de velocidad ocurre, el equipo de Carbone pudo visualizar la onda estacionaria, la cual actúa como evidencia de la naturaleza ondulatoria de la luz.” Pero mientras este fenómeno es capaz de mostrar esa propiedad de la luz, también muestra su aspecto de partícula.

Cuando los electrones pasan por la onda en el nanotubo, ellos “golpean” a las partículas de luz (fotones). Debido a que esto afecta su velocidad, haciéndolos moverse más rápido o lento, causa un intercambio de “paquetes” de energía (cuantos) entre los electrones y los fotones. La aparición de estos paquetes muestra que la luz en el nanotubo se comporta como partícula. Así que esta sorprendente imagen también muestra varios electrones revelando la “marca” de la luz misma.

“Este experimento demuestra que, por primera vez, podemos filmar a la mecánica cuántica – y a su paradójica naturaleza – directamente,” explica Fabrizio Carbone. Adicionalmente, la importancia de este trabajo pionero puede extenderse más allá de la ciencia fundamental hacia futuras tecnologías. Como Carbone explica: “Ser capaces de proyectar y controlar los fenómenos cuánticos a escalas de nanómetros como ésta, abre un nuevo camino hacia la computación cuántica.”







El láser más potente del mundo


Japón probó lo que dieron en llamar ‘el láser más potente del mundo’.
En la imagen puedes ver la apariencia y dimensiones que tiene este equipo. Se trata de un equipo láser cuyo disparo liberó la energía equivalente a 2000 billones de vatios (2 petavatios), por un lapso de 1 billonésima de segundo. El haz de luz del laser recorrió en ese tiempo 100 metros.

¿Para qué se puede usar un láser con una potencia de 2 petavatios? La respuesta de Julio Soares, investigador de la Universidad de Illinois (EE.UU.), puede parecer graciosa pero es muy preocupante: “Pues, para hacer explotar cosas”.
Si bien es cierto que se trata de un notable avance tecnológico, esto nos hace pensar en el riesgo que implicaría si se le da un uso militar. Que no se trata de paranoia, porque sabemos que casi siempre este tipo de tecnología termina usándose para “fortalecer la seguridad nacional”.

¿Qué cosas querrán hacer volar con un láser de este tipo? Allá por el 2013 se hizo una prueba con un láser de 50 kilovatios (50000 vatios) con el que derribaron un dron que se encontraba volando a una distancia de 2 kilómetros.
De forma más altruista, los desarrolladores del equipo láser menos potente ubicado en Texas (EE.UU.), dicen que ven en este avance tecnológico una posibilidad de contribuir hacia la cura de enfermedades como el cáncer, gracias a que permitiría la aceleración de protones necesarios para combatir las células cancerígenas. Con el beneficio de no tener que sufrir las consecuencias de radiación provocadas por los tratamientos actuales. Aquí puedes ver un vídeo con imágenes del equipo láser que está en Estados Unidos, y los comentarios de científicos que trabajan con él:



No conforme con lo conseguido en esta última prueba, ya los científicos japoneses de Osaka están trabajando en la fabricación de un láser capaz de producir una potencia de 10 petavatios. Esto pondría a Japón muy por delante de Estados Unidos que actualmente cuenta con un equipo láser con una potencia de 1 petavatio.







El avión más grande del mundo


El avión más grande del mundo ha sido bautizado como ‘Roc’; se encuentra en proceso de construcción y cuando esté terminado en el 2016 se convertirá en la aeronave más grande del mundo con nada menos que 117 metros.

Todo en el avión Stratolaunch 351 sorprende: desde su imponente envergadura hasta las misiones que llevará a cabo en un futuro. Esta semana se ha filtrado las primeras imágenes de este gigantesco aparato de la aventura espacial de Paul Allen, cofundador de Microsoft.

En estos momentos está siendo ensamblado en Mojave, California, para el programa de lanzamiento espacial de la empresa Stratolaunch Systems. Las fotografías han sido publicadas en el portal Aviation Week a través de un reportaje televisivo de la cadena Bakersfield.

‘Roc’ ha sido diseñado para transportar y lanzar grandes cohetes al espacio y pesa 540 toneladas. Su envergadura récord permitirá al avión lanzar estos artefactos desde diez kilómetros de altura.

Sus primeras pruebas están programadas para este año y el primer lanzamiento de prueba podría llevarse a cabo en 2018.

Al verlo, poco recuerda a un avión convencional. Se forma por dos fuselajes gemelos, de los que solo uno dispone de ‘carlinga’. La construcción se parece más a un enorme catamarán que a un avión. Aun así, sus seis motores extraídos de dos Boeing 747 lo asemejan a la aviación tradicional en cuanto a la forma de propulsión.

El apodo de 'Roc' se lo puso Paul Allen para referirse a un ave mítica de raíces persas tan grande que era capaz, según la leyenda, de llevar elefantes en sus garras. De una forma no menos espectacular la flamante aeronave hará de plataforma para lanzar cohetes al espacio.







Fotones y electrones ‘dialogan’ en la nanoescala


El trasvase de información entre los fotones de la luz, portadores de información, y los electrones de los dispositivos electrónicos miniaturizados es un reto tecnológico que podría encontrar una solución a partir de ahora gracias a una nueva propuesta de un equipo internacional con participación del Consejo Superior de Investigaciones Científicas (CSIC).

El trabajo, publicado en la revista Science Advances, ha sido elaborado por investigadores del Centro de Física de Materiales (CSIC-Universidad del País Vasco), el Donostia International Physics Center en San Sebastián, el Instituto de Ciencias Moleculares de Orsay (Francia), la Universidad de los Andes (Columbia) y el Laboratorio de Nanofotónica de Houston (Estados Unidos).

Los fotones de la luz y los electrones de numerosos dispositivos electrónicos hablan idiomas diferentes, aunque estén destinados a entenderse. La luz, actualmente utilizada en las comunicaciones modernas, es un medio rápido y muy fiable de transmisión de información. Sin embargo, la mayor parte de esta información fotónica debe ser luego procesada y tratada por electrones en componentes electrónicos miniaturizados, como por ejemplo, los transistores que miden unos pocos nanómetros.

Debido al régimen tan distinto de dimensiones y velocidad, surge un problema al transferir la información de los fotones a los electrones, y viceversa. Igual que si estuvieran en una diminuta torre de babel. Los campos eléctricos asociados con el fotón oscilan muy deprisa (del orden de mil billones de veces por segundo) y además, al tratarse de una onda, se esparcen y se extienden en el espacio debido al efecto que se conoce como límite de difracción. Por otro lado, los electrones, impulsados por campos estáticos y constantes, se mueven mucho más despacio y en dimensiones mucho más reducidas. La imposibilidad de que fotones y electrones se comuniquen en dimensiones reducidas es actualmente un cuello de botella tecnológico.

Una “nanohabitación” para atrapar la luz

Esta nueva propuesta conceptual plantea explotar el régimen de transporte cuántico de los electrones en una cavidad metálica de escala nanométrica, que puede ser entendida como una “nanohabitación” que podría actuar como foro donde los electrones y los fotones se encuentran y pueden hablar el mismo idioma, transmitiéndose así la información de manera rápida y efectiva. En esta nanocavidad, los fotones son atrapados en las mismas dimensiones que los electrones, gracias a una excitación colectiva de la materia denominada plasmón, que ayuda a “capturar” la luz en esta “habitación en miniatura”.

El trabajo propone a su vez que la excitación de esta “luz atrapada” depende de la corriente estática inducida entre los dos electrodos de la nanocavidad, es decir, entre las paredes de la “habitación”, gracias al mecanismo de efecto túnel que permite que los electrones pasen de una pared a otra. Javier Aizpurua, investigador del CSIC y científico asociado del Donostia International Physics Center, explica: “Es como poner juntos en una habitación minúscula los electrones y fotones, y estos últimos sólo brillan o se apagan dependiendo de que los primeros se muevan rebotando por las paredes de la habitación o no. Es un diálogo en la nanoescala a base de movimiento atrapado”.

El control de la activación y desactivación de las oscilaciones rápidas de la luz con corrientes eléctricas estáticas a este nivel de miniaturización es únicamente posible debido a la dependencia que presenta esta luz atrapada al régimen de túnel cuántico de los electrones a través de la nanocavidad. Por primera vez, este equipo de investigadores propone una solución tecnológica para crear un modulador electroóptico en la nanoescala.

“Sería una especie de nanotraductor para electrones y fotones. El principio de acción presentado en este trabajo requiere de una fabricación muy precisa de la nanocavidad donde la luz queda atrapada, así como la aplicación muy precisa y simultánea de un potencial externo entre los electrodos de la cavidad para controlar la corriente túnel. Solamente en estas condiciones es posible la modulación electroóptica en la nanoescala”, agrega Aizpurua.

El nivel de modulación se puede mejorar en futuros diseños más sofisticados, pero este concepto electroóptico en la nanoescala introduce una nueva vía para el desarrollo de nuevas tecnologías de la información. En ellas, los electrones y fotones se comunicarían más rápido, de manera más compacta, y por tanto, consumirían menos energía por bit de información intercambiado.

Estudio: D. C. Marinica, M. Zapata, P. Nordlander, A. K. Kazansky, P. M. Echenique, J. Aizpurua, y A. G. Borisov. Active quantum plasmonics. Science Advances. DOI: 10.1126/sciadv.1501095.






Crean un híbrido de grafeno y moléculas magnéticas


Un estudio internacional con participación del Consejo Superior de Investigaciones Científicas (CSIC) ha desarrollado un nuevo material híbrido basado en el grafeno y en moléculas magnéticas. Este hallazgo, publicado en la revista Nature Materials, abre la puerta a la aplicación de grafeno en el campo de las tecnologías de la información.

El grafeno, una lámina de carbono puro de un átomo de espesor, no es magnético, al igual que el resto de derivados del carbono. Por eso, uno de los grandes retos científicos actuales en el campo de los materiales ha sido inducir magnetismo en el grafeno, bien introduciendo defectos en su estructura, bien dopándolo con átomos diferentes al carbono.

“El grafeno tiene un gran potencial en el desarrollo de dispositivos electrónicos, con aplicaciones que van desde el almacenamiento de energía en ‘superbaterías’ a la fabricación de pantallas y dispositivos más flexibles. Sin embargo, en campos como la espintrónica, base de la grabación magnética y la tecnología de discos duros, la ausencia de magnetismo del grafeno suponía un obstáculo”, explica el investigador del CSIC Fernando Luis, del Instituto de Ciencia de Materiales de Aragón, centro mixto del CSIC y la Universidad de Zaragoza.

El nuevo material desarrollado en este estudio está formado por la unión de moléculas magnéticas, que contienen cuatro átomos de hierro, a una lámina de grafeno. Experimentos llevados a cabo en los laboratorios del Instituto de Ciencia de Materiales de Aragón confirman que existe una interacción importante entre ambos componentes. “Lo más sorprendente es que la presencia del grafeno modifica de manera radical el magnetismo de las moléculas. Los resultados muestran que el grafeno apantalla de manera muy eficiente los espines moleculares de fuentes de ruido tales como vibraciones o campos electromagnéticos”, añade el investigador.

Según los autores del trabajo, el nuevo hallazgo mejora de forma relativamente sencilla las propiedades de ambos materiales de cara a su aplicación en tecnologías concretas. “Por una parte, el dopaje de grafeno con moléculas magnéticas puede aproximarnos a la fabricación de nuevas memorias o sensores magnéticos. Por otra, la protección que el grafeno brinda a los espines puede resultar clave para usar las moléculas como unidades de información, o qubits, de un futuro ordenador cuántico. Una ventaja adicional es que campos eléctricos generados por el grafeno pueden inducir la realización de operaciones cuánticas a velocidades mucho mayores que las accesibles usando campos magnéticos”, concluye Luis.

En este trabajo también han participado la Universidad de Stuttgart (Alemania), la Universidad de Módena, la Universidad de Florencia (ambas en Italia) y la Universidad de Lausana (Suiza).
Estudio: Christian Cervetti, Angelo Rettori, Maria Gloria Pini, Andrea Cornia, Ana Repollés, Fernando Luis, Martin Dressel, Stephan Rauschenbach, Klaus Kern, Marko Burghard & Lapo Bogani. The classical and quantum dynamics of molecular spins on graphene. Nature Materials. DOI: 10.1038/nmat4490.






La tierra podría tener pelos de materia oscura

Esta ilustración muestra la Tierra rodeada por filamentos de materia oscura llamados “pelos” (NASA/JPL-Caltech)

El Sistema Solar podría ser mucho más peludo de lo que pensábamos. Un nuevo estudio publicado esta semana por Gary Prézeau del Laboratorio de Propulsión a Chorro de la NASA propone la presencia de largos filamentos de materia oscura o “pelos”.

La materia oscura es una sustancia invisible y misteriosa que constituye alrededor del 27 por ciento de toda la materia y energía en el universo. La materia ordinaria, que representa todo lo que podemos ver a nuestro alrededor, es sólo el 5 por ciento del universo. El resto es energía oscura, un extraño fenómeno asociado con la aceleración de nuestro universo en expansión.

Ni la materia oscura ni la energía han sido detectadas directamente, aunque muchos experimentos tratan de desbloquear el misterio, tanto bajo tierra como en el espacio.

Basándose en muchas observaciones de su fuerza gravitacional en acción, los científicos están seguros de que la materia oscura existe, y han medido cuánta hay en el universo con una precisión de más del uno por ciento. La teoría más aceptada es que la materia oscura es “fría”, lo que significa que no se mueve mucho, y es “oscura” en la medida que no produce o interactúa con la luz.

Las galaxias, que contienen estrellas hechas de materia ordinaria, se forman debido a las fluctuaciones en la densidad de la materia oscura. La gravedad actúa como el pegamento que mantiene unidas materia ordinaria y oscura en las galaxias.

Según cálculos realizados en la década de 1990 y simulaciones realizadas en la última década, la materia oscura forma “corrientes de grano fino” de partículas que se mueven a la misma velocidad y orbitan galaxias como la nuestra.
“Una corriente puede ser mucho más grande que el sistema solar en sí mismo, y hay muchas corrientes diferentes que cruzan nuestro vecindario galáctico,” dijo Prézeau.

Prézeau compara la formación de corrientes de grano fino de la materia oscura a la mezcla de chocolate y helado de vainilla. Si se mezclan girando una cuchara se obtiene un remolino con un patrón mixto, pero todavía se pueden apreciar los colores individuales.

“Cuando la gravedad interactúa con el gas frío de materia oscura durante la formación de la galaxia, todas las partículas dentro de una corriente continua viajando a la misma velocidad “, dijo Prézeau.
Pero ¿qué ocurre cuando estas corrientes se aproximan a la Tierra?. Prézeau ha utilizado simulaciones por ordenador para averiguarlo.

Su análisis concluye que cuando una corriente de materia oscura pasa a través de un planeta, la corriente de partículas se concentran en un filamento ultra-denso, o ‘pelo’, de materia oscura. De hecho, debería haber muchos ‘pelos’ brotando de la Tierra.

Una corriente de materia ordinaria no atravesaría la Tierra y saldría por el otro lado. Desde el punto de vista de la materia oscura, la Tierra no es un obstáculo. Según las simulaciones de Prézeau, la gravedad de la Tierra concentraría y curvaría la corriente de partículas de materia oscura en un estrecho pelo denso.

Los pelos que emergen de los planetas tienen dos “raíces”, las concentraciones más densas de partículas de materia oscura en el pelo, y las puntas, donde termina el cabello. Cuando las partículas de un flujo de materia oscura pasan a través del núcleo de la Tierra, se centran en la “raíz” de un cabello, donde la densidad de las partículas es de aproximadamente mil millones de veces más que el promedio. La raíz del pelo debería estar a alrededor de 1 millón de kilómetros de distancia de la superficie, dos veces más lejos que la Luna. Las partículas de flujo que rozan la superficie de la Tierra forman la punta del cabello, casi el doble de lejos de la Tierra que la raíz del cabello.

“Si pudiéramos determinar la ubicación de la raíz de estos pelos, podríamos enviar potencialmente una sonda allí y conseguir una gran cantidad de datos sobre la materia oscura”, dijo Prézeau.

Una corriente que pasa por el núcleo de Júpiter produciría raíces incluso más densas: casi mil millones de veces más densas que el flujo original, de acuerdo con las simulaciones de Prézeau.

“La materia oscura ha eludido todos los intentos de detección directa durante más de 30 años. Las raíces de los pelos de materia oscura serían un lugar atractivo a la vista, teniendo en cuenta lo densas que se cree que son”, dijo Charles Lawrence, jefe científico de la astronomía del JPL.

Teóricamente, si fuera posible acceder a esta información, los científicos podrían utilizar pelos de materia oscura fría para trazar las capas de cualquier cuerpo planetario, e incluso deducir las profundidades de los océanos en las lunas heladas.






SpaceX logra por primera vez que su cohete regrese a tierra sano y salvo


La compañía espacial de Elon Musk ha logrado la hazaña, su cohete Falcon 9 ha ido al espacio y regresado a la tierra para aterrizar no en la plataforma flotante de los intentos anteriores, sino en tierra firme, dentro de una base en Cabo Cañaveral en Florida, un evento que nunca antes en la historia se había conseguido.

A inicios de este mes de diciembre teníamos finalmente noticias de SpaceX, esto después de que su cohete se estrellara el pasado mes de junio al intentar aterrizar sobre una plataforma flotante. Finalmente, después de un leve retraso de un día, hoy SpaceX ha hecho historia y los cohetes espaciales reutilizables son ya una realidad.

El cuarto intento ha sido el bueno, el cohete Falcon 9 aterrizó en posición vertical con éxito en una plataforma dentro de una base en Cabo Cañaveral. Ojo, a pesar de que Jeff Bezos siga creyendo que él fue el primero en lograrlo con su compañía Blue Origin, el Falcon 9 de SpaceX no se puede comparar, éste es más veloz y está diseñado para soportar una mayor altitud dentro del espacio.

La importancia de un logro como éste radica en que todos los viajes que se han hecho al espacio, ya sea dentro de misiones de abastecimiento o como en esta ocasión de poner en órbita satélites, los cohetes se destruyen y se pierden una vez que han completado la misión. Así que con la incorporación de cohetes reutilizables, estamos ante una gran disminución de costes, ya que no será necesario fabricar nuevos cohetes para cada misión.

Por poner esto en perspectiva, la fabricación del Falcon 9 representa un gasto de 16 millones de dólares, pero al ser reutilizable, es decir, usar el mismo cohete en varias misiones, SpaceX sólo gastará 200 mil dólares en cada misión. Con esto estamos ante un posible apertura y mayor participación de los cohetes reutilizables, porque ahora empezarán a surgir otras compañía con la idea de competir con SpaceX.

Por supuesto hay que destacar el cambio en lo planes iniciales dentro de la operación del Falcon 9, que en un inicio se tenía pensado que aterrizara sobre una plataforma flotante en el mar, para así evitar posibles fallos que derivaran en accidentes fatales. En los tres intentos anteriores, Falcon 9 presentó problemas y no se logró concretar la operación. Pero en esta ocasión hubo cambios importantes, no sólo por el cambio de plataforma flotante a base solida en tierra firme, sino también porque esta versión del Falcon 9 es conocida como la v1.1 Full Thrust, que posee una estructura modificada, así como un motor actualizado, lo que hace que se tenga mayor potencia y un mejor control durante el aterrizaje.

Hasta el momento se desconocen los planes de SpaceX, por ejemplo si seguirán haciendo los aterrizajes en tierra firme, o con este cohete actualizado habrá futuras pruebas sobre la plataforma flotante. Lo que es una realidad es que la NASA no se equivocó al haber contratado a SpaceX como la encargada de transportar suministros a la Estación Espacial Internacional por al menos 12 misiones, además de que aún existe la posibilidad de transportar tripulantes. Así que el futuro de SpaceX está asegurado por un buen tiempo.