viernes, 31 de diciembre de 2010

2010 en números, ¡Feliz 2011!

Créditos: El espiritu delos cínicos.
2010 fue un año de contrastes, hubo perdidas intelectuales que serán difíciles de reemplazar: Monsiváis y Saramago ya no están con nosotros, dejando un legado basto pero que no aminora su ausencia. La Ciencia y tecnología como cada año nos han permitido acercarnos un poco más a la comprensión del mundo y aunque pareciera extraño nos han asombrado, despertando interés y curiosidad, pilares para su desarrollo e innovación.

A su vez, el año como cualquier otro estuvo acompañado de problemas sociales, económicos y ecológicos que nos llevan a reflexionar sobre el camino que ha tomado la humanidad, recociendo que tenemos tiempo para actuar y corregir los errores ya cometidos.

En lo que respecta al blog durante el año que concluye tuvo un total de 68, 251 visitas y se vieron 95,332 páginas. Se realizaron 154 comentarios que nutrieron e hicieron crecer el contenido, en 103 entradas que se publicaron durante este lapso, siendo las más populares:
  1. La velocidad del pensamiento, percepción y conciencia
  2. Origen: la interminable escalera Penrose
  3. Australopitecus sediba: el fósil de Malapa
  4. El sentido del tacto forma juicios rápidos
  5. La muerte de las abejas sin causa aparente
Los principales sitios de los cuáles provinieron las visitas (exceptuando motores de búsqueda, sitios colaborativos promotores de noticias, redes sociales y Wikipedia) fueron:
  1. Dogguie
  2. No puedo creer
  3. Coscorrón de razón
  4. PabloGeo
  5. Tercera opinión
Agradezco a todas las personas, que han hecho todo esto posible. ¡Un feliz 2011!, que está Noche vieja la pasen en compañía de las personas que aman y para los cuales son valiosos ustedes, siendo un año lleno de éxitos, paz, amor y felicidad.

lunes, 27 de diciembre de 2010

Hace diez años, Karl Deisseroth tenía detenida su investigación. Karl psiquiatra y neurocientífico, quería aprender sobre como los diferentes circuitos del cerebro afectan el comportamiento y lo que había salido mal en el cerebro de sus pacientes con esquizofrenia y depresión. Pero las herramientas de su oficio eran demasiado deficientes: Los electrodos insertados en el cerebro estimulaban demasiado los alrededores de las células. Así, en 2004, Deisseroth y sus estudiantes inventaron una nueva herramienta. Insertaron un gen para una proteína de las algas activado por la luz en los cerebros de los ratones. Al estimular las células con un láser, los investigadores podían controlar la actividad de los circuitos nerviosos específicos con precisión de milisegundos y poder estudiar sus efectos.

La técnica, llamada optogenética, salió al campo. Hoy en día, miles de científicos en cientos de laboratorios están utilizando optogenética para investigar cómo funciona el cerebro. Se han examinado las células siendo afectadas por la cocaína, y cómo la estimulación cerebral profunda alivia los síntomas de la enfermedad de Parkinson. La lista de preguntas que ahora se pueden abordar es interminable.

La historia de Deisseroth se repite en todas las areas de la ciencia: una nueva herramienta ingeniosa desencadena una cascada de nuevos conocimientos. En esta entrada se realiza una mirada más amplia a las 10 ideas que han cambiado la ciencia desde los albores del nuevo milenio.

En los últimos 10 años, nuevas formas de recopilar, analizar, almacenar y difundir la información han transformado la ciencia. Los investigadores generan más observaciones, más modelos, y más experimentos automatizados que nunca antes, creando un mundo saturado de datos. Internet ha cambiado la forma en que se comunica la ciencia y brindando oportunidades a distintas personas para participar en la investigación. Nuevos campos, como la ciencia en la red, están surgiendo, y la ciencia misma es cada vez más una red, más colaborativa y más multidisciplinaria, ya que los investigadores reconocen que se necesitan muchas mentes y conocimientos variados para abordar cuestiones complejas sobre la vida, la tierra, y el Universo.

Perspectiva de la década

1. La "materia oscura" del Genoma humano
2. Una receta para el cosmos
3. Antiguo ADN
4. Agua en Marte
5. Reprogramación celular
6. Microbioma: como los microbios obtienen un poco del respeto que merecen
7. Exoplanetas: Buscando planetas como la Tierra
8. Inflamación: Descubriendo su lado oscuro
9. Metamateriales: nuevos trucos con luz
10. Cambio climático

1. La "materia oscura" del Genoma humano

ADN. Créditos: Hammond/Science.

Pareciera tan sencillo. El ADN le dice al cuerpo como construir proteínas. Las instrucciones vienen implicitas en los genes. Las hebras de ARN, el primo químico del ADN sirve como mensajeros moleculares, llevando los pedidos a las fábricas de proteínas de las células para su posterior traducción. Sin embargo existen en el ADN, fragmentos que parecen incoherentes, inútiles e inertes.

De hecho, la regulación génica ha resultado ser un proceso sorprendentemente complejo, regulado por diversos tipos de reglamentación de ADN, aún basado en un desierto de supuestos. Lejos de ser humildes mensajeros, el ARN en todas sus formas y tamaños son en realidad jugadores de gran alcance en la forma en que operan. Finalmente, cada vez cobra mayor importancia la función de las alteraciones químicas llamadas factores epigenéticos que pueden influir en el genoma a través de generaciones sin cambiar la secuencia de ADN en sí.

El alcance de esto, el genoma se hizo evidente en 2001, cuando el genoma humano fue publicado por primera vez. Los científicos esperaban encontrar hasta 100,000 genes en los 3 mil millones de bases del ADN humano, pero se sorprendieron al enterarse de que había menos de 35,000 (la cuenta actual es de 21,000). Las proteínas que codifican represen sólo 1,5% del genoma. ¿Podría el resto de nuestro ADN realmente ser basura?

El desciframiento del genoma del ratón en el año 2002 puso de manifiesto que debe haber más en la historia. Los ratones y las personas salieron a compartir no sólo muchos genes, sino también grandes extensiones de ADN no codificante. Hace 75 millones de años el ratón y los linajes humanos divergieron, por lo que tales regiones podían ser cruciales para la supervivencia de los organismos.

Edward Rubin y Len Pennacchio del Joint Genome Institute en Walnut Creek, California, y sus colegas descubrieron que algunos fragmentos de este ADN conservado ayudaba a regular los genes, a veces desde lejos, estudiando  para ello, la función en embriones de ratón transgénico. Los estudios realizados por el grupo y otros sugirieron que las regiones no codificantes se llenaban de ADN mucho más de lo esperado en la reglamentación.

Una prueba más de que el ADN no codificante es vital proviene de los estudios de factores de riesgo genético para la enfermedad. En las búsquedas a gran escala de las diferencias de una sola base entre los individuos enfermos y sanos, aproximadamente el 40% de las diferencias relacionadas con la enfermedad se presenta en las afueras de los genes.

La "materia oscura genética" también tiene gran influencia cuando los científicos encuestados mencionan que el ADN estaba siendo transcrito o descifrado en el ARN. Los científicos pensaban que la mayoría de ARN en una célula era el mensajero ARN generados por genes codificadores de proteínas, el ARN en los ribosomas, o una pizca de otros ARN de otros lugares. Pero las encuestas realizadas por Thomas Gingeras, ahora en el Laboratorio Cold Spring Harbor en Nueva York, y Michael Snyder, ahora en la Universidad de Stanford en Palo Alto, California, encuentran mucho más ARN de lo esperado, al igual que un análisis de ARN de ratón por Yoshihide Hayashizaki del Centro de Ciencias  RIKEN Omics de Japón y sus colegas. Otros investigadores se mostraron escépticos, pero pronto llegó la confirmación de Ewan Birney, del Instituto Europeo de Bioinformática y del proyecto "Enciclopedia de Elementos de ADN", cuyo objetivo es determinar la función de todas las bases en el genoma. El piloto de los resultados de 2007 se abrió los ojos: Los cromosomas albergan muchos lugares antes insospechados donde las proteínas regulan genes o efectos epigenéticos. Sorprendentemente, alrededor del 80% del ADN de la célula mostró signos de haber sido transcritas al ARN. Lo que el ARN estaba haciendo no estaba claro.

Otros estudios revelaron que el ARN juega un papel importante en la regulación génica y otras funciones celulares. La historia comenzó a desarrollarse a finales de 1990, cuando los investigadores de plantas y nematodos biólogos aprendieron a usar pequeñas moléculas de ARN para cerrar los genes. La llamada interferencia de ARN (ARNi), es una técnica que se ha convertido en una forma estándar para controlar la actividad de genes en una variedad de especies, ganando un Premio Nobel en 2006.

Para entender RNAi y ARN en general, los investigadores comenzaron a aislar y estudiar las moléculas de ARN de 21 a 30 bases de largo. Resultó que esos "pequeños RNAs" puede interferir con el ARN mensajero y desestabilizarlo. Cuatro documentos en 2002 mostraron que los pequeños RNAs también afectan a la cromatina, el complejo de proteínas y el ADN que forma los cromosomas, de manera que podría controlar la actividad genética. En un estudio, la levadura que faltan algunos pequeños RNAs no para dividir correctamente. Otros estudios han relacionado estos pequeños trozos de ARN para el cáncer y el desarrollo.

Las sorpresas no se detuvo en los pequeños RNAs. En 2007, un grupo liderado por Howard Chang de Stanford y John Rinn, ahora en el Beth Israel Deaconess Medical Center en Boston, estudiaron la función de los genes de regulación de los llamados ARN no codificantes. Rinn y sus colegas determinaron más tarde que el genoma contiene unos 1600 de estos lincRNAs. Ellos y otros investigadores de este tipo de ARN denotaron su importancia como genes codificadores de proteínas en funciones de las células.

Muchos misterios sobre la materia oscura del genoma están todavía bajo investigación. Aun así, el panorama general es claro: hace 10 años, los genes tenían el centro de atención para ellos solos. Ahora tienen que compartirlo con un gran y creciente conjunto.

2. Una receta para el cosmos

El resplandor del Big Bang trazado por WMAP. Créditos: NASA.

Por eones, los humanos han mirado hacia el cielo estrellado y se han preguntado, "¿De dónde viene?" Los cosmólogos todavía no tienen una respuesta sólida, pero en la última década se han deducido una receta muy precisa del contenido del universo , así como las instrucciones para ponerlos juntos. El avance ha transformado la cosmología en un esfuerzo en gran medida cualitativa a una ciencia de precisión con una teoría estándar que ofrece poco margen de maniobra para otras ideas, incluso, ya que deja sin responder preguntas obvias. Nos guste o no, los cosmólogos están ahora más o menos sujetos a la teoría.

La receta necesita tres ingredientes: la materia ordinaria como el de las estrellas y los planetas, la misteriosa "materia oscura", cuya gravedad une a las galaxias, e incluso la más extraña "energía oscura" que se extiende en el espacio y permite la aceleración de la expansión del universo. Según las últimas cifras, las proporciones son 4,56% de materia ordinaria, el 22,7% de materia oscura, y el 72,8% de energía oscura.

Así es como permanecen juntos: El universo surgió, supercaliente y ultradenso, en el instante del Big Bang. Por una pequeña fracción de segundo se expandió a una velocidad más rápida que la luz. Conocida como "la inflación", que se extendía mediante pequeñas fluctuaciones cuánticas en la densidad del universo recién nacido a escalas colosales. La gravedad de estas "superdensas" regiones tiraron en la materia oscura, que atrajo junto con él la materia ordinaria, inicialmente una sopa de partículas subatómicas. Poco a poco, una gran "red cósmica" de filamentos y cúmulos de materia oscura formo dentro de ellas, las galaxias.

Antes de que el cambio de milenio, los cosmólogos habían reducido la lista de ingredientes cósmicos. Muchos sospechaban la presencia de materia oscura durante décadas. La energía oscura hizo una entrada ostentosa en 1998, cuando los astrónomos utilizanba explosiones estelares llamadas supernovas de tipo Ia para rastrear la tasa de expansión del universo y descubrió que se estaba acelerando. La idea surgió de la inflación en la década de 1980 para resolver diversos puzzles conceptual. Pero sólo recientemente han permitido a los científicos observaciones para tejer estos hilos en una teoría rigurosa.

Gran parte del progreso ha llegado a través de estudios de la luminiscencia residual del Big Bang, la radiación se conoce como el fondo de microondas cósmico (CMB). En 2000, un experimento conocido como Balloon Observations of Millimetric Extragalactic Radiation and Geophysics midieron el CMB en detalle en algunas zonas del cielo, un año más tarde, la terrestre Degree Angular Scale Interferometer midieron la CMB en el Polo Sur. Luego, en 2003, en el espacio la NASA produjo Wilkinson Microwave Anisotropy Probe (WMAP), un mapa de la CMB en el cielo, produciendo una imagen exquisita del cosmos.

La temperatura de la CMB varía alrededor de una parte en 100.000 de punto a punto en el cielo, con los puntos más calientes correspondientes a las regiones más densas en el universo primigenio. Mediante la medición de la distribución de tamaños de las manchas y su montaje con su modelo teórico, los científicos pueden investigar la interacción y las cantidades de materia ordinaria y oscura en el universo temprano. También se puede medir la geometría del espacio. Lo que permite deducir la densidad total de energía y materia en el universo y deducir la cantidad de energía oscura.

Los estudios CMB muestran que el universo es plano. Eso significa que si usted dibuja líneas paralelas en el espacio, estas se mantendrán a la misma distancia a lo largo de su longitud infinita en lugar de convergencia o divergencia. Esta llanura es una predicción central de la inflación, por lo que las mediciones impulsan esta idea descabellada. Así que si se hace un azar particular, se ve en los puntos calientes y fríos. El equipo del WMAP dio a conocer su últimos resultados en enero.

Lo más asombroso acerca de los resultados del CMB es que el modelo de los cosmólogos, tiene sólo una media docena de parámetros ajustables, que se adaptan a los datos en absoluto. Esto no es una aproximación marginal, la teoría se ajusta a los datos como la envoltura a la salchicha. Eso hace que sea difícil argumentar que la materia oscura y energía oscura no son reales y para explicar, por ejemplo, la modificación de la teoría de Einstein de la gravedad. Otros datos cosmológicos, como las mediciones de la distribución de las galaxias, también se adecuan al modelo.

Todo esto deja a los cosmólogos en una situación peculiar: tienen las proporciones exactas de los ingredientes del universo, pero todavía no sabemos lo que dos de los tres ingredientes-la materia oscura y energía oscura- realmente son. Es como si hubieran sido entregado una receta de brownie que llama a una "sustancia dulce granulado" y un "polvo blanco que se mezcla con agua para hacer una pasta", en lugar de especificar el azúcar y la harina.

Los cosmólogos pueden tener una mejor idea de lo que estamos hablando de finales de la próxima década. Una teoría de la partícula llamada "supersimetría" predice la existencia de partículas masivas de interacción débil (WIMPs), que podrían ser las partículas de materia oscura. Los investigadores se muestran optimistas de que pronto se puede detectar WIMPs chocando con detectores sensibles a grandes profundidades, producto de colisiones de partículas de alta energía en un acelerador de partículas, o la producción de rayos gamma en el espacio. Numerosos estudios astronómicos abarcan  la energía oscura, a pesar de que se podría tomar mucho más tiempo.

3. Antiguo ADN

Los científicos secuenciaron el genoma de este mamífero extinto. Créditos: David Bonadonna.

Durante cientos de años, los seres humanos para estudiar la vida antigua confiaban en restos y pruebas en huesos acerca de criaturas extintas. En la última década, las exploraciones de nuevas y potentes herramientas de rayos X y modelos computacionales tridimensionales han transformado el análisis de los huesos, dientes y conchas. Pero algo aún más revolucionario ha ocurrido: un nuevo tipo de análisis capaz de revelar las adaptaciones anatómicas que la evidencia ósea no puede proporcionar, como el color de las plumas de un dinosaurio o como los mamuts lanudos resistieron el frío.

Los nuevos puntos de vista del mundo prehistórico dependerá de la constatación de que "biomoléculas" como el ADN antiguo y el colágeno que puede sobrevivir por decenas de miles de años y dan información importante sobre seres extintos. En los últimos 10 años, este campo ha aumentado hacia adelante más allá de las expectativas. En 1997, la secuenciación del primer fragmento de ADN de un neandertal por un equipo del Instituto Max Planck de Antropología Evolutiva en Leipzig, Alemania, fue reconocido como un hito importante. Pero este año, el mismo laboratorio publicó el genoma nuclear de los neandertales, lo que representa 10 millones de veces más ADN ("Revelación del Año",). Durante la última década, estas moléculas han pintado el pasado en la vida: los genes antiguos han demostrado que algunos neandertales tenían el pelo rojo y piel pálida, y antiguos orgánulos poseían pigmentos llamado melanosomas han puesto de manifiesto el color castaño de la cola de un dinosaurio Sinosauropteryx.

ADN antiguo también puede exponer las relaciones entre las especies, por ejemplo, mostrando que la secuencia de aminoácidos del colágeno de un dinosaurio es más parecido a la de las aves que viven a la de los reptiles. ADN antiguo de mamut lanudo reveló que su sangre estaba adaptada al frío mediante la hemoglobina. ADN ha demostrado incluso que algunos neandertales se cruzaron con antepasados.

La investigación de ADN antiguo se inició a mediados de la década de 1980. Pero su promesa inicial se desvaneció en medio de una serie de reclamaciones espectaculares, que carecían de fundamento, como el ADN dinosaurio de 80 millones de años de antigüedad que fue en realidad de un ser humano. ADN antiguo estaba muy a menudo contaminado con ADN de bacterias o de los propios científicos. La financiación se detuvo y sólo unos pocos laboratorios sobrevivieron, sobre todo en Europa.

Pero en los últimos 10 años, las nuevas herramientas desarrolladas para la exploración del genoma humano dotaron de herramientas a la investigación del ADN. Por ejemplo, los nuevos secuenciadores de alto rendimiento resultaron eficientes con pequeños fragmentos de ADN, justo lo que degradaba el rendimiento de muestras antiguas. La tecnología permitió a los científicos secuenciar cada extracto de ADN extraído en forma relativamente barata. Por lo que fueron capaces de desarrollar métodos para reconocer y clasificar pequeños trozos de ADN antiguo de un aumento de trozos de ADN contaminante y también para obtener regiones de genes de interés.

Como la secuencia obtuvo potencia, los investigadores comenzaron a hacer descubrimientos a un ritmo sin precedentes. En 2005, dos equipos trabajaron juntos para secuencia de 27.000 bases de ADN de un antiguo oso de las cavernas. Seis meses más tarde, otro equipo generó 28 millones de bases de ADN de un hueso de mamut y mostró que los mamuts se separaron de los elefantes de África hace aproximadamente 6 millones de años. En 2008, el mismo equipo obtuvo el pelo de mamut en eBay y secuenciaron todo el genoma del mamut, el primer genoma de un animal extinto. Ese mismo año, el primer genoma mitocondrial completo de un Neandertal se publicó, y otros cinco pronto siguieron. En 2010, ese trabajo culminó con la publicación del genoma del Neandertal.

También este año, el equipo de Max Planck logró una hazaña que muchos investigadores hace una década habían descartado como imposible: Identificaron una especie previamente desconocida del hombre por su ADN. Secuenciaron el genoma mitocondrial de un dedo humano solo en una cueva de Siberia. El dedo no era ni Neandertal ni humanos, sino que al parecer pertenecían a una nueva especie que vivió en Asia Central hace unos 40.000 años.

Mientras tanto, los investigadores también están enfocándose en otras moléculas antiguas, como el ARN y el colágeno. Investigadores de la Universidad de Carolina del Norte hicieron la afirmación espectacular que habían aislado colágeno de un Tiranosaurio Rex de 68 millones de años y de un hadrosaurio de 80 millones de años. Algunos científicos sospechan que el colágeno proviene de las bacterias en lugar de los dinosaurios, pero otros están investigando colágeno como una forma de trozos de código de barras de los huesos no identificables. Algunos están incluso buscando en el ARN, que es mucho más frágil que el ADN en semillas antiguas para aprender acerca de la expresión genética en los cultivos tempranos.

El descubrimiento de las vidas secretas de organismos muertos puede tener consecuencias prácticas en el mundo actual, también. Algunos investigadores esperan utilizar ADN antiguo para introducir la diversidad genética de nuevo en las poblaciones amenazadas, por ejemplo, las de los osos polares. Si tienen éxito, las moléculas de los organismos muertos hace mucho tiempo puede que algún día sirvan para ayudar a salvar a los vivos.

4. Agua en Marte

Opportunity. Créditos: NASA/JPL

La búsqueda de agua y vida en el Planeta Rojo ha tenido sus altibajos. Ahora está claro que a principios de la historia de Marte, había agua líquida en el planeta o justo en el interior del planeta, persistiendo el tiempo suficiente para alterar la roca y, posiblemente, sostener el origen de la vida. Ahora se habla incluso de la humedad como prueba para aquellos que buscan vida, organismos alienigenas, que si existen, podrían ser la clave para explicar cómo la vida en nuestro planeta tiene su inicio.

A la vuelta del milenio, los expertos sabían que el Marte primitivo no había sido completamente seco. Cámaras en la nave espacial Mariner 9 habían revelado paisajes esculpidos por inundaciones catastróficas. Sedimentos en capas evocaban lagos de cráter e incluso hubo sugerencias de líneas de costa antigua que había abarcado un gran océano del norte. Pero por lo que nadie sabía, todos los embalses podrían haber sido demasiado efímeros para dar vida un comienzo.

Un toque de luz llegó a principios de 2004, cuando el rover Opportunity descubrió indicios de los mares, o por lo menos amplios lagos, en el Marte primitivo. Opportunity estaba investigando una mancha de color espectral, vista desde la órbita, que connotaba la hematita mineral de hierro relacionadas con el agua. De cerca, el lugar de aterrizaje parecía ser la sal que queda de un mar poco profundo o un lago. Science proclamó el hallazgo, junto con el descubrimiento de agua en rocas al otro lado del planeta por el rover Spirit, como el Descubrimiento del Año en 2004.

El entusiasmo duró poco. Opportunity nunca encontró evidencia mucho más allá de las aguas superficiales que agitó en los sedimentos. En lugar de un mar, el agua subterránea ácida puede estar rezumaba por entre las dunas de arena árida sal. Tal intensamente salobre, el agua corrosiva hubiera sido hostil a la vida como en la Tierra.

Espectrómetros de vuelo del Mars Reconnaissance Orbiter y Mars Express el año pasado fueron más capacesde estudiar los minerales alterados en agua, especialmente arcillas. Los astrobiólogos se apasionaron en las arcillas. Su formación requiere un contacto prolongado de agua y la roca en condiciones suaves, lo que favorece la vida, y son grandes para la conservación de la materia orgánica remanente de vida pasada. Los investigadores han descubierto arcillas en tantos lugares en Marte que enviaran un nuevo rover de alta potencia, también conocido como Mars Science Laboratory, para satisfacer tal curiosidad.

Instrumentos en órbita también han descubierto hielo enterrado a unos centímetros de la superficie del suelo, cientos de glaciares cubiertos de escombros con varios metros de espesor. El hielo cerca de la superficie marciana no se puede derretir, pero debido a que Marte se tambalea violentamente sobre su eje, su clima más cálido ha oscilado a través de cientos de miles de años, muchas veces en el pasado.

A principios de la década, los científicos planetarios comenzaron a encontrar indicios de que algunos rastros de este hielo que podría haber sido líquido en tiempos geológicamente recientes. Imágenes más nítidas revelaron barrancos en paredes de los cráteres que se ven como si estuvieran cortadas por el agua que brota por la pendiente, tal vez por el derretimiento de la nieve. En octubre, los miembros del equipo de la misión Phoenix obtuvieron pruebas de que el agua líquida, quizás poco más que un paño húmedo que se había filtrado a través de la parte superior unos pocos centímetros del suelo en el Norte. Y los miembros de Spirit  sugirieron una infiltración similar cerca del ecuador, donde se ha convertido en un vehículo atascado.

Como resultado de tales descubrimientos, la búsqueda de vida en Marte ahora significa algo más que andar a tientas en la tierra de restos moleculares. Por primera vez, muchos científicos creen que podrían encontrar microorganismos, ya sea vivos o recientemente fallecidos. Para biólogos, la perspectiva es incalculablemente emocionante. Si tales micro-marcianos estan, van a ser productos de un origen independiente, con su propia bioquímica y código genético distintivo¿O estará relacionado con la vida en la Tierra, tal vez como precursores de la hipótesis de un "mundo de ARN", llevado de un planeta a otro por los desechos espaciales?

Es posible. Los meteoritos de Marte, golpearon la superficie con impactos de asteroides, han sido encontrado en la Tierra. A veces esas rocas podrían hacer el viaje con la suficiente rapidez para que bacterias sobrevivieran la travesía. Marte fue húmedo lo bastante temprano y el tiempo suficiente, si alberga vida tal como la conocemos, entonces la vida en la Tierra podría haber comenzado allí.

5. Reprogramación celular

Adición de copias adicionales de unos pocos genes retrasan el reloj del desarrollo de una célula, produciendo  células madre pluripotentes inducidas. Crédito: Cortesía de Shinya Yamanaka, Universidad de Kioto.

Una metáfora clásica de la biología muestra imágenes de una célula embrionaria en la cima de una colina. A medida que el embrión se desarrolla, la célula rueda cuesta abajo en una serie de valles de ramificación. Una vez que una célula entra, por ejemplo, en el valle que lleva a convertirse en una célula de la piel, no puede de repente cambiar de rumbo y convertirse en una neurona. Cuando el biólogo del desarrollo Conrad Waddington mostro la imagen en la década de 1950, el mensaje era claro: El desarrollo es un viaje de ida.

No es así. En la última década, los científicos han descubierto la manera de impulsar las células diferenciadas en la colina y, quizás aún más sorprendente, directamente desde un valle a otro. Al solicitar una célula para sobreexpresar algunos genes, los investigadores pueden convertir una célula de la piel o de sangre en una célula pluripotente: uno que ha recuperado el potencial de convertirse en cualquier número de células en el cuerpo. Otros genes pueden llevar a las células de la piel se ponga directamente en las neuronas o las células sanguíneas. Los científicos ya están utilizando la técnica para hacer las líneas celulares de pacientes con enfermedades difíciles de estudiar, y en última instancia, esperan encontrar coincidentes genéticos de las células y tejidos de reemplazo, tal vez incluso órganos completos.

La base de esta idea innovadora fue construido durante varias décadas de investigación. John Gurdon puso la primera piedra en la década de 1960, cuando ranas clonadas a partir de células adultas mediante transferencia de núcleo de la célula en un óvulo enucleado. Por primera vez, un científico había engatusado material genético de una célula adulta en empezar a hacer un nuevo individuo completo. En 1996, la oveja Dolly amplió esta "transferencia nuclear" a las células de mamíferos. Tal trabajo aumentó las esperanzas de que los investigadores pudieron encontrar la manera en que los ovocitos pudieran reajustar el reloj celular de ADN de adultos, lo que permitiría el desarrollo para comenzar de nuevo en desafío de la metáfora de Waddington.

En 2006, sin embargo, Shinya Yamanaka, sorprendió al mundo cuando demostró que simplemente añadiendo más ejemplares de los cuatro genes a las células de ratón adulto, podría llevar a que se conviertan en pluripotentes-sin la ayuda de los ovocitos necesarios. Llamó a las células resultantes "células madre pluripotentes inducidas" las células (CMPi).

Un año más tarde, dos grupos: uno dirigido por Yamanaka y el otro por James Thomson, crearon de forma independiente CMPi empleando células de piel humana. Los grupos utilizaron combinaciones ligeramente diferente de genes, lo que demuestra que hay formas alternativas de hacer el proceso de trabajo. Poco después, varios grupos demostraron que era posible volver a programar un tipo de célula adulta a otro directamente, convertir los fibroblastos en las neuronas y fibroblastos en células sanguíneas, entre otros resultados.

El gran avance que ofrece es una forma de evitar algunos de los temas éticos y políticos que han afectado la investigación con células madre embrionarias humanas, que se toman de embriones tempranos. De repente, los científicos tenían una fuente de células pluripotentes libre de normas y reglamentos especiales.

Los principios de las técnicas de reprogramación tenían varios inconvenientes, sin embargo. En primer lugar, la froma permanente de insertar el material genético en el genoma de la célula reprogramada de. Aunque los genes parecen dar marcha atrás una vez fuera de las células pluripotentes, no estaba claro cómo podrían influir en el comportamiento de las células más tarde. En segundo lugar, por lo menos uno de los genes utilizados por Yamanaka se sabe accionar el cáncer, y de hecho pronto se hizo evidente que los ratones crecido de CMPi desarrollaron tumores. Por último, el proceso era ineficiente, la reprogramación sólo resultaba en una de cada 5,000 células tratadas.

Muchos de esos problemas han sido abordados. Algunos laboratorios han reprogramado las células con virus que no se insertan en el genoma. Otros han utilizado pequeños anillos de ADN llamados episomas que no se replican cuando la célula se divide. Otros investigadores han encontrado pequeñas moléculas que pueden sustituir a algunos de los factores genéticos y han encontrado formas para insertar una reprogramación de proteínas directamente en una célula. Hace unos meses, un grupo describió cómo utilizar modificaciones por ARN para reprogramar células más rápido y más eficiente que la técnica original.

Al mismo tiempo, los científicos han estado ansiosamente reprogramando de células de cientos de pacientes y controles sanos, en un esfuerzo por descubrir el origen de diversas enfermedades y tal vez encontrar nuevos tratamientos. Laboratorios están utilizando estas células para estudiar la esclerosis lateral amiotrófica, la enfermedad de Parkinson, enfermedad de Huntington, y el autismo, incluso. Las compañías farmacéuticas están utilizando las células del corazón crecido de CMPi para probar las drogas para los efectos secundarios cardíacos, una razón común que las drogas no prometedoras.

Los investigadores también están trabajando para entender exactamente cómo funciona la reprogramación. La evidencia hasta ahora sugiere quese trata de: Una célula tiene que recibir la dosis correcta de cada factor en el momento adecuado. Eso podría explicar por qué el proceso es tan ineficaz: Sólo en una pequeña fracción de células reciben la dosis correcta. La transferencia nuclear es mucho más eficiente, y algunos investigadores todavía están trabajando para reconstruir la forma del ovocito trabaja, con la esperanza de que podría aportar pistas para hacer una reprogramación de trabajo mejor.

La reprogramación ha reconfigurado el paisaje de la biología de desarrollo, tanto para las células como para los investigadores. Los científicos esperan que en las próximas décadas será reconfigurar la medicina también.

6. Microbioma: como los microbios obtienen un poco del respeto que merecen

La lista de bacterias varía entre las distintas partes del cuerpo. Créditos: Adaptado de Dethlefsen L. et al, Nature 449 (18 de octubre de 2007)
Los seres humanos han estado en batalla contra bacterias desde 1800, impidiendo la enfermedad con antibióticos, vacunas, y una buena higiene con un éxito desigual. Pero en el 2000, el premio Nobel Joshua Lederberg llamó a poner fin a la "Nosotros estamos bien, ellos están mal", pensando que tal argumento ha alimentado nuestra guerra contra los microbios. "Debemos pensar de cada huésped y sus parásitos como un superorganismo con los respectivos genomas en una quimera", escribió en Science en 2000.

Sus comentarios fueron proféticos. Esta última década ha habido un cambio en nuestra forma de ver a los microbios, los virus y nuestro cuerpo. Hay una aceptación creciente de que ellos son nosotros, y por buenas razones. Nueve de cada diez células en el cuerpo son microbios. En el intestino hay solo, hasta 1,000 especies que poseen 100 veces más genes como nuestro propio ADN. Hay pocos microbios que nos producen enfermedad, pero la mayoría son comensales y simplemente llaman la casa al cuerpo humano. Colectivamente, son conocidos como el microbioma humano. Del mismo modo, algunos virus se instalan en el cuerpo, creando una virome cuya influencia en la salud y la enfermedad está empezando a ser estudiado.

Los genes de los microbios y el nuestro forman un metagenoma que mantiene el funcionamiento del cuerpo. Esta última década hemos empezado a ver cómo los genes microbianos afectan la cantidad de energía que absorbemos de nuestros alimentos y cómo los microbios en conjunto con los virus para ayudan a preparar al sistema inmune. Viendo los componentes humanos, microbios y virus tan íntimamente entrelazados tiene amplias implicaciones. Como un inmunólogo lo dijo, un cambio "no sólo filosóficamente diferente del reconocimiento de que la Tierra no es el centro del sistema solar."

Esta apreciación ha ganado lugar poco a poco, como parte de un creciente reconocimiento de los microbios en un papel clave que desempeñan en el mundo. Microbiólogos de la secuenciación del ADN de tierra, agua de mar y otros entornos han descubierto un gran número de especies previamente no detectados. Otros investigadores genómica ha sacado a la luz intimidades increíble entre los microbios y sus huéspedes, como una bacteria llamada Buchnera y los áfidos dentro de la cual vive. Un estudio realizado en 2000 encontró que cada organismo tiene lo que al otro le falta, creando una interdependencia metabólica.

Uno de los primeros indicios de que los microbiólogos cambiaban el rumbose produjo en 1999, cuando David Relman de la Universidad de Stanford en Palo Alto, California, y sus colegas encontraron que los estudios previos de bacterias cultivadas a partir de las encías humanos habían subestimado seriamente la diversidad existente. En cuanto a las muestras tomadas en el intestino y las heces, los investigadores identificaron 395 tipos de bacterias, dos terceras partes de ellas nuevas para la ciencia.

En 2006, Steven Gill de la Universidad de Buffalo en Nueva York y sus colegas hicieron un estudio metagenómico del intestino, el análisis de todos los genes que pudieron encontrar se tradujo en 78 millones de bases secuenciadas. Encontraron genes metabólicos que complementan el genoma humano, incluidos los que descomponen la fibra, aminoácidos, drogas y otros que producen metano o vitaminas. Esto y un estudio más amplio en 2010 por Jun Wang, de BGI Shenzhen, en China y sus colegas proporcionan apoyo a la idea del superorganismo microbio-humano, con un amplio repertorio genético. Ahora, los estudios a gran escala ha hecho un repaso de la microflora en el intestino, la piel, la boca, la nariz y el tracto urogenital femenino. El proyecto Microbioma Humano ha secuenciado 500 genomas microbianos.

Algunos de estos microbios pueden desempeñar un papel importante en los procesos metabólicos. En 2004, el equipo liderado por Jeffrey Gordon, de la Escuela de Medicina de St. Louis, Missouri, Universidad de Washington, encontraron que los ratones libres de gérmenes ganaban peso después de que se suministraban bacterias intestinales, evidencia que estas bacterias ayudaron a la obtención de energía para el cuerpo más que la digestión de los alimentos. Estudios posteriores mostraron que los ratones obesos y las personas obesas albergaban pocas bacterias Bacteroidetes que sus contrapartes de peso normal.

El microbioma es también prueba crítica en muchos aspectos de la salud. El sistema inmune necesita para desarrollarse adecuadamente. Es más, para protegerse en el interior del cuerpo, las bacterias comensales pueden interactuar con los receptores de las células inmunes o incluso inducir la producción de ciertas células del sistema inmune. Una bacteria intestinal abundante, Faecalibacterium prausnitzii, ha demostrado tener propiedades anti-inflamatorias, y su abundancia parece ayudar a proteger contra la reaparición de la enfermedad de Crohn. Del mismo modo, Sarkis Mazmanian del Instituto de Tecnología de California en Pasadena mostró que la Bacteroides fragilis es simbionte humano que evito a los ratones conseguir la colitis. Y la inserción de las bacterias aisladas en órganos sanos restauraba las comunidades microbianas, curando la diarrea crónica en un paciente infectado con Clostridium difficile.

Herbert Virgin de la Escuela de Medicina en la Universidad de Washington  encuentra un papel similar para la virome. En ratones, su equipo encontró que el virus latente del herpes aceleraban el sistema inmunológico lo suficiente como para hacer que los ratones menos susceptibles a ciertas infecciones bacterianas.

Las ideas de un microbioma y virome ni siquiera existían hace una década. Pero ahora los investigadores tienen razones para esperar que algún día se manipulen virus y microbios del cuerpo para mejorar la salud y la batalla contra la enfermedad.

7. Exoplanetas: buscando planetas como la Tierra


El telescopio Kepler (en la imagen) en su búsqueda de exoplanetas. Créditos: ESO/NASA.
Hay incontables soles e incontables tierras todas girando alrededor de sus soles, exactamente del mismo modo que los siete planetas de nuestro sistema. Sólo vemos los soles porque son los cuerpos más grandes y luminosas, pero sus planetas permanecen invisibles para nosotros porque son más pequeños y no luminosos.
Giordano Bruno, 1584

Por mantener firme la idea de mundos plurales, Giordano Bruno pasó 7 años en un calabozo, y luego, el 17 de febrero de 1600, fue llevado a una plaza pública en Roma y quemado en la hoguera. Si Bruno habría tenido el poder de mirar el futuro, su mejor oportunidad de supervivencia podría haber sido mostrar a sus inquisidores la página web de la Enciclopedia de Planetas Extrasolares. La evidencia que surgió a partir del año 2000, cuando los planetas en la enciclopedia apenas eran 26, no podría haber logrado la aceptación. Pero en el último recuento, 505 y avanzando, seguramente habría hecho que apagaran sus antorchas.

En la última década, los astrónomos han descubierto tantos planetas fuera del sistema solar que sólo el más raro de ellos ahora es la corriente principal de noticias, como WASP-17, un planeta gigante descubierto en agosto de 2009, que orbita "hacia atrás" de su estrella madre. Una aplicación de software para el iPhone y iPads realiza un seguimiento de los descubrimientos de exoplanetas, puntuando 500, cuando este artículo se estaba escribiendo. Cientos más pronto serán gracias a que los astrónomos persiguen a unos 700 candidatos con el telescopio espacial Kepler de la NASA después de su lanzamiento en marzo de 2009.

Aunque la mayoría de los planetas descubiertos hasta ahora son gigantes gaseosos, un análisis de los datos de Kepler ha convencido a los investigadores que los pequeños planetas similares a la Tierra abundan en el universo y que la capacidad de detección mejorará en los próximos años. Esta idea ha abierto la posibilidad de detectar vida en otros lugares del universo. Mientras tanto, los tamaños y las órbitas de los planetas ya descubiertos están revolucionando la comprensión de los investigadores de cómo los sistemas planetarios se forman y evolucionan.

El descubrimiento de los exoplanetas comenzó como un goteo en la década anterior, a partir de la detección de "51 Pegasi b" en 1995 por un equipo suizo liderado por Michel Mayor, seguida al año siguiente por los descubrimientos de cinco planetas en EE.UU. por los astrónomos Geoffrey Marcy, Paul Butler, y sus colegas. En 2001, varios otros equipos se habían sumado a la búsqueda y el ritmo de los descubrimientos se aceleró.

La técnica más antigua y más popular para la búsqueda de planetas ha sido el uso de espectroscopia Doppler-azul-barrido o corrimiento hacia el rojo-luz de una estrella, ya que se tambalea bajo el tirón gravitacional de un planeta en órbita. En 1999, los astrónomos también empezaron a detectar planetas extrasolares mediante la técnica de tránsito, en busca de una estrella para atenuar un poco como su planeta viaja a través de su cara. Los tránsitos han producido el descubrimiento o la confirmación de más de 100 planetas hasta la fecha.

Desde 2001, los cazadores de planetas han añadido dos técnicas más para su caja de herramientas. Uno de ellos es el uso de micro-lente, en la que una estrella brilla brevemente como la gravedad de otra estrella en primer plano se dobla la luz, cambios en el brillo puede revelar un planeta que orbita la estrella en primer plano. Los investigadores dirigidos por Ian Bond, del Observatorio Real de Edimburgo, en el Reino Unido anunciaron el primer descubrimiento de un planeta a través de micro-lente en el año 2004, la técnica ha logrado encontrar 10 más desde entonces.

En 2008, los astrónomos publicaron las primeras imágenes directas de los exoplanetas: pequeños alfileres cerca de una estrella cercana. Con los avances en óptica adaptativa, la tecnología corrigió el efecto borroso de la atmósfera en los telescopios de tierra, y el desarrollo de mejores coronógrafos en los dispositivos que ayudan a bloquear la luz directa de una estrella, los astrónomos esperan a la imagen de muchos planetas directamente.

La diversidad de los sistemas planetarios descubiertos hasta la fecha ha obligado a los astrónomos a revisar sus teorías de cómo estos sistemas surgen y se desarrollan. El descubrimiento de "Júpiter calientes" que orbitan muy cerca de su estrella madre sugiere que los gigantes de gas, que se forman lejos de la estrella, pueden migrar hacia el interior a través del tiempo. Y el descubrimiento de planetas bailando alrededor de sus estrellas en órbitas inclinadas o retrógrada incluso sugiere que los planetas pueden ser arrancados de sus lugares de nacimiento en órbitas extrañas que los astrónomos no podían haber previsto.

Los astrónomos esperan que Kepler encuentre varios planetas similares a la Tierra en los próximos años. Los investigadores están planeando nuevos instrumentos en tierra y los instrumentos basados en el espacio para tomar espectros de la atmósfera de algunos de esos planetas habitables. Esas atmósferas pueden tener señales de vida, tales como el oxígeno, que los investigadores creen que sólo puede ser producido por procesos biológicos. Cuando eso ocurra, sería la última reivindicación de la visión fatal de Bruno de un cosmos lleno de mundos.

8. Inflamación: descubriendo su lado oscuro 

Los macrófagos son un indicio temprano de como la enfermedad crónica y la inflamación están estrechamente vinculados. Crédito: David M. Phillips/Photo Researchers Inc

No hace mucho tiempo, la inflamación tenía un papel claro: Era un compañero de los curanderos del cuerpo, exponer brevemente las células inmunes reconstruyendo tejido dañado por un trauma o una infección. Hoy en día, es la última idea. La inflamación tiene un gran momento. Durante la última década, ha sido ampliamente aceptado que la inflamación es una fuerza impulsora detrás de enfermedades crónicas que matan a casi todos nosotros: cáncer. La diabetes, la obesidad, Alzheimer, aterosclerosis. En este caso, la inflamación lleva una máscara lúgubre, derramando sus aspectos positivos y haciendo más enfermos a los enfermos.

Cuando un cuchillo de cocina se mueve mientras se está cortando las verduras, el organismo reacciona rápidamente. Los glóbulos blancos esterilizan la herida y empiezan el tejido de reparación. Esta respuesta inflamatoria tiene sus desventajas, causa hinchazón, enrojecimiento y dolor. (De hecho, "la inflamación" se deriva del verbo latino inflammare, que significa prender fuego.) Pero no hay duda de que la inflamación aguda es positiva, una respuesta al trauma que hace miles de años evolucionó para mantenernos vivos y saludables.

Una historia más oscura comenzó a surgir en la década de 1990. Los investigadores en interconexión de enfermedades aparentemente sin relación se dieron cuenta de que las células inmunes se congregan en los sitios de la enfermedad. La aterosclerosis, en el que placas de grasa se acumulan en las arterias, fue uno de los primeros corroborar tal hallazgo. En la década de 1980, el difunto Ross Russell de la Universidad de Washington, Seattle, vio macrófagos en el tejido aterosclerótico, estos glóbulos blancos son un sello distintivo de la inflamación. Poco a poco, a medida que se analizaba el tejido arterial, comprendían como surgía la respuesta inflamatoria. Había células T, había interferón-γ, que el sistema inmunitario produce como parte de sus esfuerzos inflamatorios. También en la combinación de variantes genéticas fueron identificadas por la compañía islandesa deCODE que predisponen a las personas con ataques al corazón, alimentando la inflamación en las placas. Y luego en abril de este año, investigadores utilizaron una técnica microscópica nuevo para describir, pequeños cristales de colesterol en las arterias que inducen la inflamación en las primeras etapas de la enfermedad en ratones, relatado en la revista Nature.

Otras condiciones desarrollaron historias paralelas. En 1993, un grupo de la Universidad de Harvard encontró que el tejido graso de ratones obesos producía una proteína inflamatoria clásica. Diez años más tarde, documentos mostraban una correlación entre la infiltración de macrófagos del tejido adiposo en los roedores de manera similar a las personas obesas. Los recién llegados a la historia inflamatoria incluían enfermedades neurodegenerativas como el Alzheimer y el Parkinson. En este caso, no se conoce si la inflamación es la perpetuación de la enfermedad o simplemente es un paseo.

En la mayoría de enfermedades crónicas para las que la inflamación ha sido señalada, parece conducir a la mala salud, pero no iniciarla. En el cáncer, por ejemplo, artículos publicados en la última década sugieren que los tumores de la inflamación avanzan junto al desastre: Tumores distorsionan el tejido sano, lo que desencadena la reparación de tejidos, que a su vez promueve la proliferación celular y el crecimiento de vasos sanguíneos, ayudando a ampliar el cáncer. Y aunque las mutaciones genéticas en las células tumorales inician el cáncer, hay evidencia de que la inflamación en el tejido circundante ayuda a convencer a las células a lo largo.

En el cáncer, la inflamación se presenta por lo menos en parte, por las mismas razones que normalmente hace: lesión de los tejidos. En otros lugares, su aspecto es más misterioso. En enfermedades neurodegenerativas, por ejemplo, hay algunos daños en los tejidos de neuronas, pero no hay evidencia, también, que la inflamación este ayudando a matar a las neuronas. La inflamación también parece promover dos componentes de la diabetes tipo 2: resistencia a la insulina y la muerte de las células beta pancreáticas que producen insulina.

Cuando se trata de la obesidad, no está claro por qué la inflamación impregna el tejido adiposo. Pero hay teoría. Una habla de una respuesta inmune equivocada: las células de grasa en las personas obesas son metabólicamente normales, y el sistema inmune los percibe como que necesitan ayuda y envía los macrófagos al rescate, a pesar de que sólo hacen daño.

La manera más segura de probar que la inflamación es la conducción de cualquier enfermedad es mediante el bloqueo de ella y probar si eso ayuda, los experimentos están en marcha. En 2007, Marc Donath, del Hospital Universitario de Zurich en Suiza y sus colegas describieron los resultados de un ensayo clínico sobre diabetes tipo 2. Setenta pacientes recibieron un placebo o anakinra, un medicamento que se usa ocasionalmente para tratar Artritis reumatoide que bloquea la interleucina-1. IL-1 una citoquina proinflamatoria, promueve la inflamación, que se ha encontrado en las células beta a partir de las personas con diabetes tipo 2. En el pequeño estudio, publicado en el New England Journal of Medicine, el medicamento ayudó a controlar la enfermedad. Anakinra no es una buena opción para el tratamiento de la diabetes a largo plazo, por lo que varias empresas están compitiendo para desarrollar alternativas.

Mediar la inflamación en las enfermedades crónicas es una nueva frontera, su éxito todavía incierto. Pero después de la inflamación eludida durante tanto tiempo, los investigadores están persiguiéndola a plomo, tratando de mantenerse un paso por delante y discernir cuando su necesidad sea apagar los incendios.

9. Metamateriales: nuevos trucos con luz

Metamateriales permiten dirigir la luz alrededor de un objeto. Una versión de disco funciona con microondas. Créditos: David Shurig.

Tres siglos después de que Isaac Newton publicara Óptica, el panorama ha cambiado. En la última década, los físicos e ingenieros pioneros han encontrado nuevas maneras de orientar y manipular la luz, han creado lentes que desafían el límite fundamental en la resolución de un objetivo común e incluso han construido capas" que hacen que un objeto invisible.

Tales hazañas surgieron de una mezcla más o menos de 50 a 50 de una nueva tecnología y una idea novedosa. La tecnología de "metamateriales": emplea un conjunto de barras, anillos y cables que actúan como los materiales con extrañas propiedades ópticas. La idea es la óptica de transformación, un esquema que indica a los científicos la manera de adaptar las propiedades de un metamaterial para lograr un efecto como de camuflaje.

Metamateriales trabajan en la dirección de ondas electromagnéticas de luz y otros. Cuando las ondas de luz atraviesan materiales normales, tales como vidrio, el material altera los campos eléctricos y magnéticos en la luz, produciendo una desaceleración de las ondas a una nueva velocidad en particular. La desaceleración da el nuevo medio de un índice de refracción diferente. Este efecto se explica por qué una popte en un vaso con agua parece doblarse en la superficie del agua. En los materiales naturales, las ondas de luz que entran en un ángulo siempre doblan en el material-el sello de un índice de refracción es mayor que 1-.

En 1968, Víctor Veselago, un físico ruso, razonó que un material puede ser diseñado para crear un índice negativo de refracción y doblar las ondas de luz más radical. Si el agua tenía un índice negativo de refracción, luego un popote colocado en un vaso parece doblarse debajo de sí mismo. Este material, Veselago considero podía constituir un superlente: una hoja plana capaz de enfocar la luz, incluso mejor que las lentes curvas. La noción permaneció latente durante décadas. Luego, a finales de 1990, John Pendry, físico del  College Imperial de Londres y sus colegas determinaron que la forma larga y delgada de nanotubos de carbono ayudaba a absorber ondas de radio.

Pendry comenzó reflexionando sobre cómo otros materiales artificiales podrían afectar electroondas magnéticas. Cables de cobre y anillos rasgados producían "eco", con los campos eléctricos y magnéticos de frecuencias específicas y Pendry se dio cuenta de que jugando con las resonancias se podía sintonizar las propiedades eléctricas y magnéticas de un metamaterial lograr un índice negativo de refracción para microondas. También razonó que sería posible construir superlentes Veselago para ver los objetos más pequeños que la mitad de la longitud de onda de la luz que transmite. Un lente no convencional que puede vencer el "límite de difracción". Pero los metamateriales, se dio cuenta Pendry, se pueden hacer mediante la amplificación de resonancias pequeñas, llamadas ondas evanescentes, que la luz crea bajo ciertas condiciones.

La idea de Pendry desencadenó un torrente de experimentos. En 2001, Pendry se asoció con el físico David Smith, de la Universidad de California (UC), San Diego, ahora en la Universidad de Duke en Durham, Carolina del Norte, para la construcción de un metamaterial con índice negativo de refracción de microondas, aunque para ello paso un par de años convenciendo a la comunidad científica que funcionaba. Sólo unos años más tarde, otros equipos informaron de un éxito inicial en la toma de una superlente y dispositivos relacionados llamado hyperlenses.

Entonces las cosas se pusieron realmente extrañas. En mayo de 2006, Pendry y colegas y de forma independiente, Ulf Leonhardt, un teórico de la Universidad de St. Andrews en el Reino Unido, informó de que los metamateriales podían usarse para hacer un objeto invisible, empleando la dirección de la luz alrededor de ella Sólo 5 meses después, David Schurig en su postdoctorado junto a otros colegas dieron a conocer un dispositivo de camuflaje en forma de anillo.

El dispositivo no es perfecto, sólo trabajaba con microondas de una frecuencia específica. El avance real reside en el concepto detrás de él. En su teoría de la relatividad general, Einstein se dio cuenta que el espacio y el tiempo se puede estirar y deformar de manera que cambia la trayectoria de la luz. Así Leonhardt y Pendry imaginaron doblar el espacio para dirigir la luz alrededor de una región circular, por lo que no se ve nada dentro de ese agujero invisible.

Los teóricos han podido imitar este extremo estiramiento del espacio por llenar una región sin deformar el espacio con un metamaterial cuyas propiedades eléctricas y magnéticas varían de una manera específica. Pusieron a la teoría matemática para hacer esa transformación. En principio, la teoría permite a los experimentadores curvar la luz casi de cualquier forma que quieran, siempre que puedan esculpir un metamaterial en consecuencia.

Las maravillas siguen llegando. En 2008, los investigadores construyeron un manto de microondas que trabaja en un rango de longitudes de onda. Ese mismo año, en la Universidad de Berkeley el físico Xiang Zhang y sus colegas crearon el primer dispositivo de camuflaje que trabajaba en tres dimensiones. Las capas relacionadas se han realizado para trabajar con los rayos infrarrojos y luz visible.

Sin embargo para decepción de los fans de Harry Potter, al encubrir un objeto de tamaño humano en longitudes de onda visibles parecen una posibilidad remota. Pero metamateriales para microondas podrían tener miles de aplicaciones prácticas. Y la idea de la óptica de transformación es tan hermosa que parece una pérdida derroche de inspiración si no se ha traducido en algo útil.

10. Cambio climático

Los impactos del calentamiento global-tanto sequías como inundaciones- han llegado antes de lo esperado. Créditos: Universidad de Colorado.

La mayoría de puntos de vista son una sorpresa: un estallido de entendimiento, una solución elegante a un problema. Pero la idea principal de esta década en la ciencia del clima es diferente. Durante 40 años, los investigadores habían luchado con tres grandes preguntas: ¿Es el calentamiento mundial? Si es así, ¿Los seres humanos detrás del calentamiento? Y ¿Son procesos naturales que puedan para frenar? En los últimos años, los científicos del clima finalmente estuvieron de acuerdo con respuestas sólidas: sí, sí, y no-tal como se había sospechado.

No hubo sorpresas. Los efectos de los gases de invernadero sobre los océanos y el hielo polar son más rápidos de lo que los modelos habían previsto. Sin embargo, ante la obvia reducción de emisiones de carbono el mundo se resistió. En los Estados Unidos, aun cuando la ciencia se hizo más fuerte, una reacción política forzó a los científicos del clima para defender su credibilidad y motivos.

El repentino cambio sorprendió a investigadores del calentamiento global. Ellos habían estado publicando evaluaciones del estado del efecto invernadero-calentamiento bajo la égida de una organización u otra desde 1979; en 1990, el nuevo Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC) tomó la iniciativa. La segunda evaluación del IPCC, publicada en 1995, afirmaba ligeramente que "el balance de evidencias sugiere que los seres humanos estaban influyendo en el clima mundial. Pero en 2007, el IPCC había llegado a un consenso científico sólido: el calentamiento es "inequívoco", era "muy probable", debido sobre todo a los seres humanos, y los procesos naturales "muy improbables" pero con fuerza contundente. La amplitud y profundidad del proceso del IPCC parecía ahogar el coro pequeño, pero bien conocidos de inconformistas climáticos.

La evolución de todo el mundo amplifico el mensaje. En la década de 1980 y 90, la mayoría de los investigadores pensaron que los impactos previstos de los gases de invernadero no golpearía duro hasta bien entrado el siglo 21. Pero a mediados de la década de 2000, el hielo marino en el Ártico durante el verano fue, obviamente, desapareciendo, las plataformas de hielo fueron cayendo a pedazos, y Groenlandia y los glaciares de la Antártida Occidental se precipitaron hacia el mar. El huracán Katrina inundó Nueva Orleans al igual que los científicos debatían cómo el efecto invernadero podría intensificar y multiplicar los huracanes. Incluso la acidificación de los océanos es un hecho de observación de finales de la década. En abril de 2006, un artículo de portada en la revista Time advertía del calentamiento global como un hecho y advirtió claramente: "estarmos preocupados. Muy preocupados. "

Sin embargo, las naciones poderosas estaban actuando en contra. Como candidato presidencial en 2000, George W. Bush se había comprometido a regular el CO2, como presidente, no cumplió y se negó a firmar el Protocolo de Kyoto, un tratado de limitación de las emisiones que 187 países habían ratificado tres años anteriores. Siguieron años de esfuerzos por la Administración Bush para alterar un puñado de informes de la ciencia del clima para minimizar los posibles efectos del cambio climático, mientras los legisladores en Washington y los negociadores en el extranjero en varias ocasiones no podían pasar de EE.UU. o las normas internacionales. Europa tuvo un cierto éxito inicial con su sistema de topes y comercio, pero incluso el Fondo Mundial para la Naturaleza dice que no hay "ningún indicio de que el sistema influye en las decisiones de inversión a más largo plazo".

Una nueva Administración en Washington trajo un cambio en el tono, pero no en curso. Durante la campaña presidencial de 2008, Barack Obama se comprometió a reducir las emisiones de EE.UU. un 80% en 2050 respecto a 1990, después de las elecciones, la Cámara de Representantes de EE.UU. aprobó una ley que hizo básicamente eso. Pero el proyecto murió en el Senado este año, después que el presidente Obama no haya logrado obtener un tratado vinculante sobre las emisiones en las negociaciones clave en Copenhague en diciembre de 2009.

En noviembre, la publicación de la correspondencia por e-mail entre los científicos, tomada desde los servidores de la Universidad de East Anglia en el Reino Unido, había dado a la ciencia del clima una sacudida de la mala publicidad. Cinco grupos de expertos más tarde absolvió a los científicos de la mala conducta científica. Aun así, el evento pudo haber dañado profundamente la opinión del público en la ciencia del clima, con repercusiones políticas que aún no se desarrollan. Las elecciones del mes pasado del Congreso de EE.UU. pueden insinuar cosas por venir: La mayoría de los republicanos, que ganaron las elecciones a la Cámara y casi todos los candidatos republicanos del Senado han cuestionado la ciencia fundamental detrás del cambio climático, y algunos de ellos denuncian todo el campo como una conspiración. "La guerra contra la ciencia del clima y los científicos que está pasando ahora hace que la administración Bush mire moderado", dice Rick Piltz, un funcionario de la Casa Blanca, en el clima desde 1995 hasta 2005 que ahora dirige el grupo de vigilancia del clima Science Watch en Washington, DC

Hay indicios de movimiento. En los EE.UU., la Agencia de Protección Ambiental se está preparando para la batalla para reducir las emisiones de las plantas de gran potencia, y China, Indonesia, Brasil además de la India han hecho recientemente sus compromisos por primera vez para hacer frente a las emisiones. Pero los "halcones climático" han perdido el tiempo e impulso, y muchos expertos ahora creen que la adaptación al calentamiento del planeta, para no reducir las emisiones, dominará los debates de política en la próxima década.

Referencia:

"Insights of the Decade", Science.

viernes, 24 de diciembre de 2010

La evolución de las luces de Navidad

Patente de 1912 de un foco navideño. Créditos: United States Patent and Trademark Office.
En 1882, el aspecto de la temporada de vacaciones cambió para siempre.

En lugar de adornar el árbol de Navidad con velas, Edward H. Johnson, inventor y vicepresidente de la próspera compañía eléctrica de Thomas Edison, encadeno 80 bombillas, de color rojo en su escuálido árbol de hoja perenne . Encendían seis veces por minuto.

"No necesito decirles que el siempre verde brillante fue un espectáculo agradable - uno apenas puede imaginar algo más bonito", escribió un periodista del Post Detroit y Tribune.

Más de un siglo después, los 80 focos se han multiplicado en cientos de millones de diminutas luces eléctricas -tal vez miles millones- que sirven para la decoración de los hogares y alrededor de 40 millones de árboles cada año.

Desde las primeras cuerdas simples de las bombillas a las pantallas de luz LED controlados por ordenador, podemos volver sobre la evolución curiosa de la bombilla.

Las luces de arco

Antes de la llegada de la bombilla de luz incandescente moderna, el químico Humphry Davy probó con tensión de arco para apagar las luces. Los dispositivos permitían saltar entre dos varillas de carbono, que emiten un punto súper brillante de la luz.

El diseño no fue de larga duración o de seguridad, sin embargo, motivo a los inventores a crear luces incandescentes autónomas.

Swan y Edison
A la izquierda un foco incandescente de Swan y a la derecha bombilla creada por Edison. Créditos: Museo de Ciencias (Londrés) Librería & Archivos.

Las primeras luces incandescentes fuero obra de Sir Joseph Wilson Swan en 1850. Swan presentó una patente para el diseño en 1861, pero el carbono del filamento se quemaba rápidamente en presencia de oxígeno.

Thomas Edison estaba trabajando en su propia versión y, finalmente, apoyado por Swan en su compañía, obtuvo los derechos de patentes de la bombilla de Swan. Edison sabía que el secreto del éxito era un filamento de carbono mejorado (versiones de tungsteno llegaron años más tarde), por lo que su tienda probo miles de fibras vegetales que buscaban el mejor material.

Las fibras de algodón, que podían permanecer encendidas durante más de 1.500 horas, se encontró como uno de los mejores filamentos naturales en 1880. La empresa de Edison continuó trabajando en favor de las tecnologías para hacer un dispositivo más habitual, incluyendo el circuito paralelo, ampollas de vidrio más resistente, mejores dínamos, un confiable suministro de tensión, fusibles, aislamiento, tomas de corriente e incluso interruptores de luz.

Árbol eléctrico de navidad

En 1882, dos años después de que la primera bombilla de luz incandescente fiable nació, Johnson iluminaba su casa en la ciudad de Nueva York de la Quinta Avenida con una cadena de 80 "huevos delicados de cristal".

A finales de 1890, Anás Hummel de Pennsylvania había presentado una patente para un árbol de Navidad artificial. Más tarde patentes construido por él y empelando la base giratoria de Johnson, fueron demasiado costosas para ser viables comercialmente durante varias décadas.

De la Casa Blanca se obtiene un árbol

Edison Electric Company comenzó a vender bombillas pequeñas, con forma de pera para árboles de Navidad, así como las bases para árboles, en 1895. Los bulbos en luz natural, fueron más tarde abasteciéndose de más colores: rojo, verde, entre otros.

En Cleveland , la Casa Blanca levantó un árbol de Navidad "decorado con ángeles de oro, plata y trineos de oro, un montón de oropel, y luz eléctrica siendo el primer árbol de Navidad en la Casa Blanca", según "La Historia de la Bombilla Navideña".

El truco de la publicidad es ampliamente reconocido como el nacimiento del sistema de iluminación eléctrica en el árbol de Navidad, a pesar de que Johnson lo había hecho una década antes.

Luces de lujo

Revistas como la New York Post y la Scientific American empezaron a publicar publicidad para el alquiler de luces de Navidad en 1899 y 1900, los grandes almacenes comenzaron a utilizar árboles iluminados alrededor de 1901. Pero a un costo de aproximadamente $ 2,000 dólares de hoy, los árboles de decoración eran demasiado caros para la mayoría de la gente.

La muestra y la publicidad, sin embargo, empujó el desarrollo de tecnologías de bajo costo para llevar luz eléctrica al alcance de los consumidores.

La American Eveready Company (conocida hoy en día por sus baterías) vendió la primera pre-cableado, et de luces de navidad en 1903, y 1907 consiguió una mayor miniaturización de los bulbos. Ralph E. Morris renunció en 1908 al uso de tapones en las luces y la conexión a cables telefónicos electrificados a fin de evitar el uso de velas en su árbol de Navidad.

La rebelión de NOMA

La leyenda cuenta que con 15 años de edad, Albert Sadacca vio una casa quemada hasta los cimientos a causa del uso de velas para árboles de Navidad, lo que lo llevó a buscar accesorios de iluminación más seguro cuando se hizo mayor.

Sadacca y sus hermanos desarrollado cadenas de bombillas pequeñas, de color claro en la década de 1910 que fueron un éxito entre los compradores. La familia finalmente fundó NOMA Electric Company en 1925 sobre la base de su éxito y celebró el título como el mayor fabricante de luces de Navidad en los próximos cuatro años.

Luces intermitentes

Los inventores de patentes presentaron bulbos en masa durante la década de 1920, otros más complejos que mecánicamente, pero la mayoría dependían de un simple termostato.

Cuando la electricidad calienta una tira de metal dentro de la bombilla, se inclinaba y se rompía el circuito. Al enfriarse, se inclinaba hacia atrás para volver a conectar el circuito y crear un parpadeo intermitente o el efecto "guiño", como algunas patentes describen. El mismo diseño se sigue utilizando en las modernas lámparas de color rojo con punta de luz intermitente.

Las luces de la burbuja

La luz de propagación fue creada en 1935 por Carl Otis y sus patentes más tarde mejoraron el diseño en los últimos años. Las luces de trabajo calentaban un vial de bajo punto de ebullición líquido (aceite ligero, en las primeras versiones) con una bombilla incandescente oculta. Luces modernas utilizan diclorometano como el líquido, pero el diseño sigue siendo esencialmente sin cambios.

NOMA compro los diseños de Otis, pero no fue capaz de lanzarlo al mercado de las luces caprichosas hasta después de la Segunda Guerra Mundial, siendo el primer éxito de ventas ya en 1947.

Los fusibles de seguridad

Para garantizar la seguridad de las luces, NOMA desarrollado y comercializo fusibles pequeño en 1951 que podían ser fácilmente reemplazados. Los dispositivos pequeños, como vial son comunes en casi todas las luces decorativas de hoy.

Inventores más tarde presentaron las patentes de humo y detección de calor  enadornos en 1976.

Efectos especiales

Las bombillas incandescentes estándar, incluso parpadeando, ya no son emocionantes para el público. Inventores respondieron a la llamada mediante la modulación de las luces de otras maneras.

En 1965, por ejemplo, Arturo y Gustavo Cárdenas presentaron una patente para un adorno de la luz de llamada basados en la tecnología del termostato mismo que se encuentran en las bombillas intermitente. Cuando la luz parpadea de nuevo, un electroimán suena una campana.

Una de las primeras patentes para modular la intensidad de la luz por el sonido se llamó, "amplitud de respuesta iluminación de la pantalla de audio", fue presentada en 1977. Fluctuaba la intensidad de la luz basada en la frecuencia de los hilos de sonidos en un micrófono. Y en 1979, Harold J. Weber presentó una patente para una luz parpadeante llama. Se utiliza un semiconductor para controlar la frecuencia de una corriente alterna para cambiar entre los filamentos.

Luces inteligentes

Controlado por ordenador, la iluminación inteligente inició en la década de 1990, incluyendo un sistema de iluminación programable totalmente patentado en 1995. Invenciones más recientes usan el software y redes inalámbricas para crear pantallas de iluminación elaboradas basados en la música a través del sistema.

Uno de los ejemplos más famosos es el hogar de Carson Williams en Mason, Ohio. En 2004, Williams uso equipo Luz-O-Rama y una pista de Trans-Siberian Orchestra para controlar 16,000 luces  con 88 canales diferentes. Un video publicado en YouTube en 2005 se convirtió rápidamente en una sensación de Internet.

Futuros LED

Cuando la electricidad fluye a través de algunos semiconductores, los electrones en el material excitan la luz y emiten en longitudes de onda muy específica. Joseph Henry descubrió el truco en 1907, pero no fue hasta finales de 1960 que el mercado de los semiconductores maduro y materiales para hacer los LED se hicieron más accesibles.

Incluso entonces, tomó décadas descubrir las aleaciones de semiconductores capaces de reproducir la mayoría de los colores de la luz, como la luz blanca. Las luces LED aparecieron por primera vez a finales de 1990 y han ido aumentando en popularidad y bajando de precio desde entonces.

Las luces LED son claramente el futuro de la iluminación de vacaciones, en parte debido a su diseño robusto (que está completamente recubierto de plástico), sino también por su eficiencia - algunos colores consumen alrededor de ocho veces menos energía que las bombillas incandescentes-.

Referencia:

Dave Mosher, "The Curious Evolution of Holiday Lights", Wired.

lunes, 20 de diciembre de 2010

Avances científicos en el 2010

En este año que culmina Science recopila lo que consideran son los mayores avances científicos en este año, sin más la lista:

  1. La primera maquina cuántica

    No puede ser tan útil como el Modelo T, pero, conceptualmente, una máquina pequeña dio a conocer este año un logro tan o más importante que el famoso coche de Henry Ford o cualquier otra máquina anterior. Hasta ahora, todas las máquinas se han trasladado de acuerdo con las leyes no-sorprendentes de la mecánica clásica, que gobiernan el movimiento de los objetos cotidianos. En cambio, el nuevo dispositivo se sacude de manera explicable sólo por las extrañas reglas de la mecánica cuántica, que normalmente rigen las moléculas, átomos y partículas subatómicas. La máquina proto-cuántico abre la puerta a un sinnúmero de dispositivos experimentales y tal vez a pruebas de nuestro sentido de la realidad. Ese potencial y el ingenio de la experiencia lo convierten en el Avance del año.

    Gracias a la mecánica cuántica, el reino de la nada se ve muy pequeño como nuestro mundo cotidiano. La teoría cuántica dicta que una cosa muy pequeña puede absorber la energía sólo en cantidades discretas, no pueden estar perfectamente quieta, y, literalmente, puede estar en dos lugares al mismo tiempo. Los científicos han observado tales efectos cuánticos y los más raro en innumerables experimentos con átomos, moléculas, partículas subatómicas, corrientes de luz, electricidad, e incluso de helio líquido. Pero nadie había visto a tales efectos en el movimiento de un objeto hecho por humanos.

    No es que los físicos no estaban tratando. Los investigadores han formado pequeños haces de semiconductores con medidas de nanómetros de ancho y micrómetros de largo. Esta viga, o "oscilador," vibraba a una frecuencia establecida como una cuerda de guitarra, y de acuerdo a la teoría cuántica, que puede absorber o emitir energía sólo en cuantos cuyo tamaño es proporcional a la frecuencia de la viga. Para ver estos efectos, los físicos primero tenían que aspirar cada cuanto posible y dejar un rayo en su menos "estado fundamental." Incluso entonces, un rayo no puede permanecer completamente inmóvil, como la incertidumbre cuántica requiere que mantenga un medio irrecuperable -cuántico de energía y el baile que nunca se detendrá- "el movimiento del punto cero".

    Para llegar al estado fundamental, los físicos tuvieron que enfriar sus vigas a casi el cero absoluto. También tuvieron que hacer a los cuantos lo más grande posible, haciendo un haz más rígido para aumentar su frecuencia. Pero eso también reduce la amplitud del movimiento, por lo que es más difícil de detectar. Así que hay varios equipos utilizando la luz láser o microondas para enfriar un rayo y detectar su movimiento, observando los cuantos.

    Un equipo de físicos estadounidenses encontro la ruta más rápida, informaron en marzo. En lugar de un rayo, crearon una tabla pequeña de buceo de nitruro de aluminio plateado con aluminio que vibraba. A medida que el artilugio tarareaba lejos en una muy alta frecuencia -6000 millones de ciclos por segundo- la "piezaeléctrica" material que produce un campo eléctrico que trinaba era fácil de detectar. Lo más importante, a través de la materia, los físicos lograron una "pareja" del dispositivo mecánico de un sistema electrónico que se llama un "qubit fase," un anillo superconductor de que se tiene un bajo consumo de energía y un estado cuántico de alta energía.

    Para manipular el qubit con microondas, los investigadores podrían usarlo para alimentar a los cuantos de energía en el oscilador o sacarlos de él, como se podría usar un cajero automático para depositar un billete de $ 20 a una cuenta bancaria o retirar uno. Primero se puso de manifiesto que cuando se enfría el oscilador a unas centésimas de un grado no se pudo conseguir cuantos. Eso significaba que tenía que estar en el estado fundamental, balanceándose con sólo el movimiento del punto cero. Los investigadores luego pusieron el oscilador en un estado con exactamente un cuanto más de energía. Incluso se convenció a los dos estados a la vez, por lo que era, literalmente, mover dos cantidades diferentes al mismo tiempo.

    El ingenio de este esquema radica en el diseño del oscilador y el uso de un qubit para controlarlo. De hecho, en 2009, el equipo utilizó un qubit para alimentar a cuantos en una larga tira de superconductores de metal que sonaba con microondas tanto como los anillos de órgano de tubos con los sonidos. Una vez que se trabajó para soltarse un poco, se sustituyó a la cavidad de microondas con su oscilador mecánico inteligente, un movimiento de guante blanco a otros físicos que no lo habían considerado.

    ¿De qué se trata? En la investigación básica, máquinas simples cuántica podría hacer detectores ultrasensibles o servir para generar estados cuánticos de la luz. La mayoría de solemnoides podrían ayudar a probar los límites de la teoría cuántica y nuestro sentido de la realidad. ¿Por qué no puede un coche o una persona estar en dos lugares ligeramente diferentes a la vez? ¿Tiene algún principio que lo permita? Una forma de averiguarlo sería tratar de poner las cosas cada vez más grandes en estados cuánticos.

    Una prueba de la mecánica cuántica es muy lejos. Sin embargo, otros grupos ya están trabajando hacia el control cuántico del movimiento de los objetos a escala humana. De hecho, después de que se actualice en los próximos 5 años, el Laser Interferometer Gravitational-Wave Observatory, que cuenta con sedes en Livingston, Louisiana, y Hanford, Washington, contará con pares de espejos de 40 kilogramos enfriadso por rayos láser a sus estados fundamentales de movimiento, que puede dar a los físicos una oportunidad para intentar un experimento en una escala muy grande.

    Pero antes, los físicos tenían que alcanzar un estado cuántico de un objeto mecánico. Y en 2010 hicieron precisamente eso.
  2. Genoma artificial

    Un avance en biología sintética acaparó los titulares en todo el mundo este año. En lo que fue aclamado como un momento decisivo para la biología y la biotecnología, los investigadores del J. Craig Venter Institute (JCVI) en Rockville, Maryland, y San Diego, California, construyeron un genoma sintético que fue insertado en una bacteria en lugar de la ADN original del organismo. El nuevo genoma en la bacteria produjo una nueva serie de proteínas.

    El genoma sintético fue una copia casi idéntica de un genoma natural, pero en última instancia, los investigadores prevén genomas sintéticos especialmente diseñados para producir biocombustibles, productos farmacéuticos, productos químicos u otros útiles. También este año, los investigadores de la Universidad de Harvard mejoraron su método de alto rendimiento de la modificación de genomas existentes para tales fines, y otros biólogos sintéticos demostraron que el ARN basada en "aparatos" pueden obtener células que se comporten de forma diferente en respuesta a ciertas señales.

    J. Craig Venter y su equipo emplearon 40 millones de genes para tal proeza. Primero colocaron el ADN sintético la levadura, y luego lo trasplantaron en una bacteria, para sustitutuir el genoma nativo.

    Aunque no es realmente "vida artificial", como algunos medios de comunicación declararon, este éxito hizo que se les solicitará una audiencia en el Congreso y una revisión por una comisión presidencial sobre la ética en biología sintética.

    En 2009, George Harvard Iglesia introdujo una técnica llamada ingeniería múltiplex genoma, lo que añade múltiples hebras de ADN a las bacterias cada par de horas, una rápida generación de organismos genéticamente modificados con genomas ampliamente renovados. Este año, su equipo se le ocurrió una manera más barata de producir las hebras de ADN utilizado para modificar el genoma, con la esperanza de hacer de este un enfoque costo-efectivo para el uso industrial.

    Los equipos dirigidos por Niles Caltech Pierce, Christina Smolke la Universidad de Stanford, la Universidad de Boston y Collins, James han logrado maneras de cambiar el comportamiento de una célula mediante la modificación de sus sistemas de regulación. En algunos casos, añaden especialmente diseñado moléculas de ARN que puede detectar moléculas en la célula asociadas con, por ejemplo, el cáncer o la inflamación. Una vez que eso sucede, hacen que la célula produzca una proteína que puede sensibilizar las células a las drogas o hacer que se someten a la muerte celular programada. Otro equipo hizo un tratamiento que causó que las bacterias buscaran y destruyeran el herbicida atrazina. Estos dispositivos estan mucho más cerca de genomas sintéticos, con modificaciones, para tener aplicaciones prácticas.
  3. Genoma neandertal

    Hace trece años, cuando los investigadores secuenciaron sólo algunos fragmentos de ADN mitocondrial de un neandertal, el avance fue noticia en todo el mundo. Este año, los investigadores publicaron un borrador del genoma neandertal y el primer análisis de lo que estos 3 mil millones de bases de ADN que revelan acerca de la evolución de estos seres humanos extintos y nosotros.

    Utilizando nuevos métodos a los fragmentos degradados de la secuencia de ADN antiguo ( "Perspectivas de la Década"), los investigadores colocaron juntos una secuencia compuesta de tres neandertales mujeres que vivieron en Croacia 38.000 a 44.000 años atrás, para reconstruir las dos terceras partes del genoma completo del Neandertal. Por primera vez, los científicos pueden comparar en detalle los genomas de neandertales y humanos modernos.

    La lectura de esta secuencia, los investigadores concluyeron que los europeos modernos y los asiáticos, pero no los africanos-han heredado entre el 1% y 4% de sus genes de los neandertales. Al parecer, los neandertales se cruzaron con los humanos modernos después de salir de África hace al menos 80.000 años, pero antes de que se extendieran a Europa y Asia. Si es correcto, este descubrimiento. es un impresionante desafío de un modelo que dice que a medida que los humanos modernos salieron de África, sustituyeron por completo los humanos arcaicos como los neandertales sin cruzarse.

    El genoma del Neandertal también ofrece a los investigadores una nueva herramienta poderosa para el estudio de los genes que se han desarrollado recientemente en los seres humanos, luego de la separación de los neandertales. El catálogo incluye 78 diferencias en los genes que codifican proteínas que son importantes para la curación de heridas, los golpes de los flagelos de espermatozoides, y la transcripción de genes. Codifican varias proteínas expresadas en la piel, glándulas sudoríparas, y las vainas interiores de las raíces del pelo, así como la pigmentación de la piel, todas las diferencias reflejan adaptaciones a los nuevos climas y ambientes como los humanos modernos se extendieronc por todo el mundo.

    Los investigadores también han identificado 15 regiones de interés que difieren entre los humanos y los neandertales, incluidos los genes que son importantes en el desarrollo cognitivo y el esqueleto. Las mutaciones en humanos, se consideran contribuyen a las enfermedades como la esquizofrenia, el síndrome de Down y el autismo, o anormalidades esqueléticas como clavículas deformes y una caja torácica en forma de campana.

    Como los investigadores se acercaron a los pocos genes que nos separan de los neandertales, también están tratando de descifrar cómo las diferencias en el código genético alteran las proteínas producidas en el laboratorio. Este año, científicos insertaron 11 pares de péptidos solo en las células eucariotas para probar las diferencias en la expresión génica. Con suerte, pueden identificar algunos de los genes que nos equiparon para sobrevivir, mientras que los neandertales se extinguieron.
  4. Proxima generación genómica

    Investigadores en Genómica saborear los frutos de secuenciación masiva en paralelo en 2010. Más barato, más rápido la "próxima generación" de máquinas han cobrado mucha fuerza en los últimos 5 años, este año dado importantes resultados de varios proyectos de gran envergadura.

    Un ambicioso proyecto, el Proyecto 1000 Genomas, trata de encontrar todas las diferencias de una sola base o polimorfismos de nucleótido único (SNP)-presente en al menos 1% de los seres humanos. Se completaron tres estudios piloto de este año, que en conjunto identificaron 15 millones de SNP, incluidos 8,5 millones de otras nuevas. La información ayudará a los científicos rastrear las mutaciones que causan enfermedades.

    Los investigadores también acabado de catalogar todos los elementos funcionales en el genoma de la mosca de la fruta Drosophila melanogaster y el nematodo Caenorhabditis elegans, cuyos resultados se espera que se publicará a finales de año.

    En el ADN humano, la secuencia completa del genoma de dos africanos de las tribus de cazadores-recolectores, de los más antiguos linajes conocidos de los humanos modernos, confirmó la gran diversidad genética dentro de esos grupos. Los investigadores también elaboraron un borrador del genoma neandertal  y descifrado el genoma de pelo de 4000-años de edad, conservado en el permafrost de Groenlandia.

    El cuerno de la abundancia de los resultados también incluyen las encuestas de todos los transcritos del ADN-el llamado transcriptoma y de las interacciones proteína-DNA, así como evaluaciones de la expresión génica y la identificación de genes de enfermedades raras.
  5. Logrando la reprogramación celular

    El cambio del destino de una célula mediante la adición de copias adicionales de unos pocos genes se ha convertido en rutina en los laboratorios de todo el mundo. La técnica, conocida como la reprogramación celular, permite a los científicos a regresar reloj del desarrollo de una célula, por lo que las células adultas se comportan como células madre embrionarias. Las células resultantes conocidas como células madre pluripotentes inducidas (CMPi) están ayudando a los científicos para estudiar una variedad de enfermedades y algún día podría ayudar a tratar a los pacientes mediante el suministro de células de reemplazo genéticamente compatible.

    Este año, los científicos encontraron una manera de hacer una reprogramación aún más fácil con las moléculas de ARN sintético. Los ARNs sintéticos están diseñados para eludir las defensas del antiviral de la célula, que suelen atacar a extranjeros ARN. La técnica es dos veces más rápida y 100 veces más eficiente que las técnicas estándar. Y debido a que el ARN se descompone rápidamente, las células reprogramadas son genéticamente idénticas a las celdas de origen, haciéndolos potencialmente más seguras para su uso en terapias. La evidencia preliminar sugiere que el enfoque de ARN reprograma la célula más a fondo que otros métodos, dando una aproximación más exacta a las células madre embrionarias. El método también puede impulsar las células para convertirse en tipos celulares nonembryonic.

    Mediante la inserción de ARN sintético en una célula que codifica un gen clave en el tejido muscular, por ejemplo, los investigadores pudieron a su vez tanto los fibroblastos y CMPi en las células musculares. 
  6. En busca de genes noveles

    Los científicos que estudian los trastornos genéticos obtienen raro éxito en una estrategia de gran alcance para encontrar el ADN culpable este año.

    Utilizando técnicas de secuenciación barata y un acceso directo de secuenciación de sólo el 1% del genoma que indica a las células cómo construir proteínas-reprimieron varias enfermedades que habían eludido a los investigadores hasta ahora. La vieja manera de localizar la causa de los trastornos mendelianos, o las enfermedades causadas por una mutación en un gen único, fue el estudio de patrones de ADN la herencia en las familias.

    Ese enfoque no funciona cuando unos pocos familiares con la enfermedad se pueden encontrar o cuando una mutación no se hereda, sino que surge espontáneamente. A finales de 2009, los genetistas comenzaron con la secuenciación de exones, o codificadores de proteínas de ADN, de los pacientes con trastornos mendelianos.

    Esta secuencia "exoma"  dio una larga lista de mutaciones que los científicos luego analizaron, por ejemplo, haciendo caso omiso de aquellos que no cambian la estructura de proteínas o de que muchas personas son portadoras. El resultado final: el ADN defectuoso subyacentes esta en al menos una docena de misteriosas enfermedades-incluidos los genéticas que dan lugar a malformaciones cerebrales graves, niveles de colesterol muy bajos y deformidades faciales. Encontrar el gen detrás de una rara enfermedad puede conducir a un mejor diagnóstico además de tratamientos y nuevos conocimientos sobre la biología humana. Los científicos esperan poder utilizar la secuenciación exoma para marcar las causas de más de la mitad de los cerca de 7,000 enfermedades mendelianas conocidas o presuntas que aún no tienen una explicación genética.
  7. Simuladores cuánticos pasan la primera prueba clave

    Como un estudiante que se cuela una calculadora en una prueba, los físicos han encontrado una forma rápida de resolver difíciles problemas matemáticos. Este año, mostraron que los simuladores cuánticos por lo general, cristales de simulación en el que los puntos de luz láser desempeñan el papel de los iones del cristal y los átomos atrapados en los lugares donde entran en un juego de luz adoptando el papel de los electrones de forma rápida pueden resolver los problemas de la física en materia condensada.

    Los físicos suelen inventar modelos teóricos para explicar los experimentos. Puede ser que aproximadamente un cristal magnético como una matriz tridimensional de puntos con los electrones en los puntos de interacción a través de sus campos magnéticos. Los teóricos pueden anotar una función matemática denominada codificación de Hamilton como una idealización.

    Sin embargo, "resolver " un hamiltoniano para revelar cómo se comporta un sistema, por ejemplo, en qué condiciones los electrones se alinean con magnetizar el cristal puede ser desalentador. Sin embargo, los físicos pueden adaptar un simulador cuántico para que una particula, Hamilton y el experimento resuelvan el problema teórico. Cinco grupos reproducen los resultados de cuatro hamiltonianos previamente resuelto. Tres incluso asignados como "diagramas de fase" similares a la que muestran la temperatura y presión a las que el agua se convierte en un gas, líquido o sólido. Los físicos esperan simuladores cuánticos hamiltonianos que no han sido resueltos, como uno de los superconductores de alta temperatura. Pero primero tenía que demostrar que las cosas podían reproducir los resultados conocidos.
  8. Las simulaciones de dinámica molecular

    A veces la fuerza bruta es el camino a seguir, sobre todo cuando el uso de computadoras para simular proteínas se tiene que lograr. Estas simulaciones son una pesadilla combinatoria. Cada dos aminoácidos en una cadena de proteína se puede unir el uno al otro en dos ángulos diferentes, cada unión puede tener tres conformaciones. Así que una proteína simple con 100 aminoácidos se puede doblar en 3198 de diferentes maneras.

    Llegando al detalle atómico es aún más aterrador. Las proteínas se ordenan a través en todas estas posibilidades en milisegundos o menos. Una computadoras requiere mucho más tiempo. Expertos en proteínas plegables desde hace mucho tiempo recurrieron a los superordenadores para obtener ayuda. Pero incluso estos gigantes no  poseen el tiempo suficiente para simular el proceso de plegamiento completo.

    Hace dos años, investigadores en los Estados Unidos dieron a conocer un nuevo superordenador cableado con 512 chips hechos a medida para acelerar los cálculos de los átomos en una proteína e interactuar el agua circundante. Eso les permitió ganar otra ráfaga de velocidad. Como resultado, el grupo informó este año que han sido capaces de rastrear el movimiento de los átomos en una pequeña proteína 100 veces más que los esfuerzos anteriores podían hacer, lo suficiente para ver la proteína en su camino a través de 15 ciclos de despliegue y el repliegue. El siguiente, el grupo ya está logrando máquinas nuevas con 1024 y 2048 fichas para mejorar las simulaciones de proteínas más grandes.
  9. Ratas redux

    Hoy en día, la mayoría de las jaulas de los ratones de laboratorio se estan quedado en segunda opción, puesto que el inquilino ahora son las ratas. La razón: las ratas son más parecidas a nosotros. El corazón humano, por ejemplo, late unas 70 veces por minuto, el corazón de una rata, 300 veces; de un ratón, 700.

    Patrones de señales eléctricas en la rata y el corazón humanos son también similares. Las ratas, al ser más inteligentes que los ratones, también podrían ser mejores modelos en enfermedades humanas neuronales como el Alzheimer y el Parkinson. Y las ratas son más grandes y más fáciles de manejar para el trabajo de laboratorio.

    Luego, en 1989, los investigadores aprendieron a eliminar genes específicos para hacer "ratones knock-out", una técnica de recombinación homóloga de células madre embrionarias, que no funcionó en ratas. Así que los ratones se convirtieron en los animales preferidos para la experimentación en diversos estudios, desde la biología del desarrollo para el desarrollo de fármacos.
  10. La profilaxis del VIH

    Desde el inicio de la epidemia de SIDA hasta el 2009, sólo cinco de 37 estudios a gran escala que han tratado de prevenir el VIH han dado resultados convincentes y positivos. Luego, en julio y noviembre pasado, dos ensayos empelando diferentes estrategias, sobre  la prevención del VIH informaron de un éxito. Todos los investigadores del SIDA, pero baila con alegría.

    El primer resultado se mosotro en la Conferencia XVIII Internacional del SIDA celebrada en Viena, Austria. Un gel vaginal que contiene medicamento tenofovir anti-VIH redujo las infecciones del VIH en mujeres de alto riesgo en un 39% durante un período de 30 meses. Cerca de 900 mujeres de Sudáfrica participaron en el estudio, la mitad recibió el microbicida y las otras un gel inerte. Las mujeres que usaron el microbicida exactamente como se indica, su eficacia alcanzo el 54%.

    El mes pasado, el primer estudio de la historia de la profilaxis pre-exposición oral dió resultados aún más alentadores. Los sujetos, 2499 hombres y mujeres transexuales que tienen sexo con hombres, fueron reclutados de seis países. La mitad se les pidió que tomar Truvada, una combinación de tenofovir y emtricitabina, cada día. Después de un promedio de 1,2 años, el grupo tratado tuvo  43,8% infecciones menos que en el grupo que tomó un placebo. Una vez más, una mejor adherencia igualado mayor eficacia: En un subestudio pequeños, el aumento de la eficacia en 92% en los participantes que tenían niveles mensurables de Truvada en la sangre.

    Ninguno de los enfoques es una bala mágica, dicen los investigadores. Pero en combinación con otras medidas, podrían marcar el comienzo de una nueva era de la prevención del VIH.

Referencia:

Related Posts Plugin for WordPress, Blogger...