sábado, 30 de junio de 2012

La supersimetría: El futuro de la física explicada

Un evento de supersimetría simulada en el experimento ATLAS del Gran Colisionador de Hadrones. Créditos: ATLAS/CERN.

En el aire esta presente el rumor del descubrimiento del bosón de Higgs el 4 de julio que pondría en marcha el último hilo del Modelo Estándar de la física. Esto puede representar que se cierre el caso sobre cómo funciona el universo, ya que aunque el Modelo Estándar responde a muchas preguntas y ha sido muy eficaz en la predicción de la existencia de partículas que fueron descubiertas posteriormente, también genera un nuevo conjunto de preguntas que podrían resultar muy difícil de responder.

Conocer la masa del bosón de Higgs sería un logro espectacular, explica el físico teórico Lawrence Krauss de la Universidad Estatal de Arizona, cuyo libro sobre los entresijos de la física de partículas, Universo de la nada: por qué existe algo en lugar de nada, fue publicado en enero. "Pero si eso es todo lo que se descubre podría ser malo para todos, porque no explica cómo resolver los problemas del modelo estándar".

Ahí es donde entra en juego la supersimetría

El Modelo Estándar es el marco que los físicos de partículas usan para describir el comportamiento de todas las partículas subatómicas conocidas y las fuerzas fundamentales. A pesar de que ha sido un triunfo de la física de finales del siglo XIX, contiene varios temas sin respuesta. Durante años, muchos físicos han estado buscando teorías más allá del Modelo Estándar y entre los más populares es la supersimetría .

Una de las cuestiones sin respuesta aparente es la razón por la que las cuatro fuerzas fundamentales del universo: -la gravedad, el electromagnetismo, la fuerza débil y la fuerza nuclear fuerte- tienen valores tan diferentes. Más concretamente, ¿por qué la fuerza débil es de aproximadamente 10 mil millones de veces más potente que la gravedad.

Esto es extraño, porque hasta en el nivel subatómico, las partículas cuánticas virtuales están constantemente moviéndose. Esta vacilación, si se deja sin trabas, debería presionar a la escala de energía de la fuerza débil lejos de su valor observado. La popularidad de la supersimetría deriva de su capacidad para evitar que esto suceda.

Como casi todo lo que tenga que ver con partículas subatómicas, la supersimetría es rara. En esencia, se dice que por cada aspecto que sabemos de acerca de partículas -como electrones, quarks y neutrinos- existe su correspondiente superpareja de mayor masa. Así que el electrón se combina con una partícula llamada s-electrón, los quarks tendrían s-quarks correspondientes (la mayor parte de la nomenclatura supersimétrica simplemente añade una "s" a las partículas conocidas.)

Si estos supercompañeros existen, tienen la propiedad de, naturalmente, anular las pequeñas sacudidas cuánticas que conducen la fuerza débil fuera de su rango observado. "Esa es una de las cosas que hace tan atractiva la supersimetría: puede mantener la balanza por separado", explica Krauss.

Algunas teorías de supersimetría tienen la ventaja adicional de proporcionar los candidatos ideales para la materia oscura. Algunos de los supercompañeros no interactúan con la luz, que es exactamente lo que una partícula de materia oscura debe ser.

El problema es que ni el LHC, ni su recientemente dado de baja homólogo estadounidense, el Tevatron, ha visto evidencia sólida de partículas nuevas y pesadas durante sus experimentos. A pesar de que seguir buscando en los rangos más altos de energía, los aceleradores de partículas no presentan ningún nuevo supercompañero.

"A medida que se excluyen cada vez más rangos de energía, los modelos de supersimetría más fácilmente mantienen las escalas separadas volviéndose cada vez más artificiales", reitera Krauss.

Los experimentos han excluido las más simples teorías supersimétricas. Los físicos pueden mantener y ajustar sus teorías, pero después de un tiempo estos ajustes finos empiezan a parecer arbitrarios.

Lo ideal sería que, junto con el bosón de Higgs, el LHC también encontrará la superpareja del bosón de Higgs "en los próximos años. Pero si el LHC no ve siquiera la evidencia de la supersimetría, ¿dónde queda la física de partículas?

"No sabemos", comenta Krauss. "La probabilidad de que vamos a construir otro gran acelerador de partículas no es buena. Por lo tanto, si esto es así, entonces estamos ante un dilema real".


Referencia:

jueves, 28 de junio de 2012

Textos antiguos pueden explicar los altos niveles de radiación en 774

Un aumento en los niveles de carbono-14 en los árboles del siglo VIII podría ser explicado mediante la supernova "cruz roja".

Textos históricos, como la Crónica anglosajona, a menudo se refieren a eventos astronómicos.  Créditos: Mary Evans Picture Library
Una misteriosa "cruz roja" que se vio en el cielo una tarde del año 774 en Gran Bretaña pudo ser una explosión de supernova previamente no reconocida -y podría explicar el misterioso aumento de carbono-14 en los anillos de crecimiento ese año en los árboles de cedro japonés-. Lo anterior lo sugiere un estudiante en EE.UU.

Hace unas semanas, Jonathan Allen, uno de los principales bioquímicos en la Universidad de California en Santa Cruz, estaba escuchando el podcast de Nature cuando se enteró de un equipo de investigadores en Japón, quienes habían encontrado un pico extraño en los niveles de carbono 14 en los anillos de los árboles. El aumento probablemente vino de un estallido de radiación de alta energía en la atmósfera superior, aumentando la velocidad a la que el carbono-14 se forma.

Pero había un problema: las únicas causas conocidas de radiación son las explosiones de supernovas o gigantes llamaradas solares y los investigadores no sabían de tales eventos en los años 774 ó 775, las fechas indicadas por los anillos de los árboles.

Intrigado, Allen llegó a Internet. "Realice una búsqueda rápida en Google", dice.

Su interés permanente en la historia ha sido útil, señala. "Sabía que si uno se remonta hacia atrás, hay muy poca historia escrita". "Las únicas cosas que había visto u oído hablar era sobre textos religiosos y eran 'crónicas' que narraban historias de reyes y reinas, guerras y cosas de esa naturaleza".

En su búsqueda encontró las entradas del siglo VIII en la crónica anglosajona del Proyecto Avalon, una biblioteca en línea con documentos históricos y legales organizadas por la Universidad de Yale en New Haven, Connecticut. Al desplazarse hacia el año 774 ad, Allen encontró una referencia a una "cruz roja" que apareció en los cielos "después de la puesta de sol".

Escondido en los cielos

"Me hizo pensar que se trataba de algún tipo de evento estelar", añade Allen. Por otra parte, señala, el enrojecimiento podría indicar que la fuente estaba escondida detrás de una nube de polvo lo suficientemente densa como para dispersar todo, pero no una pequeña cantidad de luz roja. Esta nube también podría evitar que los restos de la supernova propuesta pudiera ser vista por los astrónomos modernos.

Los científicos en el campo están impresionados. Geza Gyuk, un astrónomo en el Planetario Adler de Chicago en Illinois, que ha utilizado la Crónica anglosajona para investigar los eventos astronómicos, explica que Allen podría haber dado con algo. "El texto sugiere que el objeto fue visto en los cielos del oeste poco después de la puesta de sol", reitera. "Eso significaría que se habría movido detrás del Sol [donde no se podía ver] conforme la Tierra orbitaba el sol. Eso, junto con la tenue luz de la "nueva estrella" debido al polvo que recorre un largo camino podría explicar porqué no nadie habría visto ni registrado el evento".

Sin embargo, explica Donald Olson, un físico con interés por la astronomía histórica en la Universidad de Texas en San Marcos, "las crónicas tempranas pueden ser difíciles de interpretar de una manera inequívoca".

Ya en 1870, añade, Juan Jeremías publicó un artículo en Nature que se refiere al mismo texto de la Crónica anglosajona [PDF]. Jeremías propuso entonces que podría haber sido una primera descripción de las Luces del Norte.

"Otra posible explicación podría ser un evento de cristales de hielo", añade Olson, señalando que el "crucifijo" rojo se pudo formado por la luz del Sol iluminando las partículas de hielo a gran altitud en bandas horizontales y verticales de luz.

Sin embargo, también podría haber sido una supernova no conocida previamente. Diversas  supernovas ya conocidas por los astrónomos ", simplemente no están" en el registro histórico, explica Gyuk. "El cielo es un lugar enorme y el registro histórico no es muy bueno".

Referencias:

viernes, 22 de junio de 2012

La ciencia se quema por Prometeo

Fotograma de Prometeo. Créditos: FOX.
Ridley Scott produce una sensación al espectador similar a sentir que sus entrañas son arrancadas por aves.


No es ningún secreto que la ciencia y la industria del entretenimiento no son siempre los mejores compañeros. En 2009, informó AAAS de reuniones sobre el programa NSF para fomentar la ciencia responsable en Hollywood. Pero, el mensaje es claro: Hollywood está interesado en contar una historia y si la precisión científica se interpone en el camino, es posible, hacerse a la derecha para esquivarla. Pero después de ver Prometeo, me he dado cuenta de que el desprecio de la industria para la ciencia, incluso apenas plausible no será capaz de suspender mi incredulidad. Y no tiene por qué ser así.

[Advertencia: spoilers]

Los problemas con la película comienzan de inmediato. Una panóramica del paisaje que bien se pudo extraer del Señor de los Anillos muestra a un humanoide en una cascada. Él bebe un poco de una infusión negra y luego su ADN comienza a desmoronarse, seguido rápidamente de él. Sus restos se disuelven en el río e implica que los seres humanos surgieron debido a esto.

Por desgracia, se pone peor a partir de ahí. Prometeo, la nave espacial titular, está llevando a un equipo de científicos a una luna que orbita un planeta a 37 años luz de distancia. Esto no es una mera especulación, se deja bien claro. Pero si estos son los mejores científicos que encontramos para una misión interestelar de 80 años en el futuro, entonces la Tierra en 2092 está en serios problemas. Para ilustrar esto, póngase en los zapatos del personaje Rafe Spall. Es un biólogo, que está volando a las estrellas para encontrar la evidencia de que los ingenieros han estado jugando con la vida en la Tierra y ante la primera prueba (el cadáver de un gigante alienígena humanoide), ¿qué hace? ¿analiza y tomar muestras? No, decide que va a volver a la nave espacial por una buena bebida. Una misión de mil millones de dólares en el espacio y ¿este es el calibre de los investigadores a bordo? Por desgracia no es la única opinión negativa, como se lee en diferentes sitios.

Prometeo no es la única película que lo ha hecho mal, es sólo la que ha estado expuesto recientemente. Como un marido obediente, llevé a mi esposa a ver Battleship hace unas semanas. Sí, fuimos a ver una película basada en el juego de Battleship  y significaba que me esperaba algo bastante malo. De nuevo, hay un asalto de la estupidez en los primeros minutos tan abrumadora que quede impresionado y maravillado ante la incredulidad y allí se quedó. Tal vez estoy siendo grosero, con la esperanza de que una película con la participación de extraterrestres debe por lo menos respetar o reconocer la velocidad de la luz.

Sin embargo no creo que sea yo. Tampoco creo que sea tan poco razonable esperar al menos una apariencia de verosimilitud. Haga un agujero de gusano o algo así. Dejen el guión a un par de estudiantes de posgrado, a cambio de un poco de cerveza y pizza. Establezca en su película "hace mucho tiempo en una galaxia muy, muy lejana" Pero haga algo. ¿Realmente el equipo de CGI mato a  Prometeo desde el principio al interpretar que un grupo de enzimas se rompe y reorganiza el ADN? Redshirts de John Scalzi podría ser destinado a las óperas de larga duración del espacio en televisión, pero la forma en que la tripulación de Prometeo evita el sentido común y la lógica básica que tienen en casa en el Intrepid.

Se podría pensar que esto es sólo el desahogo más nerd en Internet sobre una película que quería que me gustará pero no sucedió, creo es más importante que eso. Es la forma en que los medios presentan cuestiones de ciencia. El gran éxito de programas (científicamente inverosímil) como CSI e incluso Bones ha significado un enorme aumento en las solicitudes de programas de ciencias forenses. Pregunte a la opinión pública sobre el ADN y por lo menos un tercio de las respuestas incluyen algo de Gattaca, deprimente como puede ser. El conocimiento científico nunca ha sido grande, pero ¿no es responsable incluir un poco de verdad para que la audiencia vaya a su casa entretenida e informada (aunque sea ligeramente) al mismo tiempo?

Referencia:
  • Jonathan M. Gitlin, "Science gets burned by Prometheus", Ars Technica.

miércoles, 20 de junio de 2012

¿Cómo se registra el envejecimiento en nuestros genes?

El ADN de este hombre de 103 años de edad, tiene un menor número de modificaciones químicas que el de un bebé recién nacido. Imagen: Manel Esteller

"El gran secreto que comparten todas las personas de edad es que realmente no han cambiado", escribió la novelista Doris Lessing. "El cuerpo se modifica, pero no cambia en absoluto" Desde el punto de vista genético, hay mucho de verdad en esa afirmación: A medida que envejecemos, el núcleo de nuestro ser biológico - la secuencia de nuestro ADN, nuestros genes - sigue siendo el mismo. Sin embargo, investigaciones recientes sugieren que los cambios químicos más sutiles de nuestro ADN se producen a medida que envejecemos. La comparación del ADN de un bebé recién nacido con la de un centenario muestra que el alcance de estos cambios pueden ser dramáticos y que pueden ayudar a explicarnos por qué nuestro riesgo de cáncer y otras enfermedades aumenta a medida que envejecemos.

El ADN se compone de cuatro bloques de construcción básicos - adenina, timina, guanina y citosina - y la secuencia de estos nucleótidos dentro de un gen determina qué proteína producen. Los genes se pueden activar y desactivar cuando sea necesario y la regulación de los genes a menudo implica lo que se llama mecanismos epigenéticos que producen alteraciones químicas en el ADN. Uno de los más comunes de estos cambios epigenéticos implica la unión de un grupo metilo -un átomo de carbono y tres átomos de hidrógeno- con un nucleótido, generalmente citosina. En general, esta unión, llamada metilación, desactiva el gen en cuestión.

Las investigaciones recientes sugieren que los cambios en los patrones de metilación de ADN como cuando una persona envejece pueden contribuir a enfermedades cuyos riesgos aumentan con la edad, incluyendo el cáncer. Para tener una mejor idea de cómo cambian los patrones de metilación con la edad, un equipo dirigido por Manel Esteller, investigador en epigenética del Instituto de Investigación Biomédica de Bellvitge en Barcelona, ​​España, analizaron dos casos extremos: un bebé recién nacido hombre y un hombre de 103 años.

El equipo extrajo ADN de los glóbulos blancos de la sangre tomadas de la sangre del anciano y del  cordón umbilical del bebé y determinaron su patrón de metilación utilizando una nueva técnica llamada secuenciación del genoma completo en bisulfito (WGBS). Con WGBS, el ADN se expone al químico bisulfito sódico, que no tiene ningún efecto sobre citosinas con grupos metilo unidos a ellos, pero convierte a las demás en uracilos. El resultado es un mapa epigenético que muestra exactamente qué sitios presentan metilación en el ADN y cuales no.

El estudio presentado en Proceedings of the National Academy of Sciences, encontró una cantidad significativamente mayor de metilación de la citosina en el recién nacido que en el centenario: el 80.5 por ciento de todos los nucleótidos citosina, en comparación con el 73 por ciento. Para ver un caso intermedio, el equipo también realizó WGBS en el ADN de un sujeto masculino de 26 años de edad, el nivel de metilación fue también intermedio, alrededor del 78 por ciento.

Esteller y sus colegas revisaron entonces las diferencias entre el ADN del recién nacido y del centenario, pero se limitaron a la comparación a las regiones del genoma donde las secuencias de nucleótidos del ADN eran idénticas por lo que sólo las diferencias epigenéticas se destacaron. El equipo identificó cerca de 18,000 regiones diferenciales con metilación (DMR) en el genoma, que abarca muchos tipos de genes. Más de un tercio de los DMR se produjeron en los genes que ya han sido vinculados con el riesgo de cáncer. Además, en el centenario, 87 por ciento de los DMR implicaban la pérdida del grupo metilo, mientras que sólo el 13 por ciento estaba inmerso en la ganancia de uno.

Por último, para ampliar el estudio, el equipo analizó los patrones de metilación de 19 recién nacidos y los 19 personas entre 89 y 100 años de edad. Este análisis confirmó que las personas mayores tienen una menor cantidad de metilación de la citosina que los recién nacidos.

Los autores concluyen que el grado de metilación disminuye de manera acumulativa en el tiempo. Por otra parte, Esteller explica, que en el centenario hay una pérdida de grupos metilo, produciendo que se apaguen los genes, aumentando el riesgo de infección y la diabetes que cuando están activos durante la edad adulta. En contraste, el pequeño número de genes en el centenario de que tenían mayores niveles de metilación eran a menudo los que se habrían tenido que mantener encendidos para proteger contra el cáncer.

El nuevo trabajo es el primero en comparar por completo, todo el genoma de patrones de metilación de ADN en grupos de edades diversas, explica Martin Widschwendter, un oncólogo de la Universidad College de Londres en el Reino Unido que ha estudiado la relación entre la metilación y el cáncer. Widschwendter, quien compara la secuencia de ADN con el "hardware" del genoma y los cambios epigenéticos con el "software", reitera que el equipo de Esteller apoya la investigación anterior que sugiere que en "función de la edad y la exposición del medio ambiente, donde el software acumula defectos" causa "relacionada el cáncer y enfermedades degenerativas".

Referencia:

miércoles, 13 de junio de 2012

¿Dónde estan nuestros vehículos híbridos?

Esperando catalizadores comercialmente viables, al parecer
Con motor de hidrógeno el Chevrolet Equinox Fuel tiene un alcance de 321 kilómetros. Créditos: Wikimedia Commons/Aude.

Las celdas para auto son la fuente de energía para vehículos soñada: pueden utilizar hidrógeno y oxígeno como combustible y oxidante, respectivamente, produciendo electricidad y agua (más un poco de calor). En comparación con los alimentados por baterías de vehículos eléctricos, los vehículos impulsados ​​por hidrógeno ofrecen una mayor densidad de energía, lo que representa un mayor alcance y menor peso. Por supuesto, tienen sus desventajas -como la exigencia de una completa infraestructura de ductos para el hidrógeno y estaciones de abastecimiento-, pero el debate de celdas de combustible frente a las baterías sera en para otro día (y para la historia).

El primer vehículo que empleaba celdas de combustible de hidrógeno (General Motors / Chevrolet Electrovan) fue creado en 1966. Los investigadores han estado desarrollando celdas PEM (Proton Exchange Membrane) en los últimos 15 años. Pero ¿Por qué no vemos ninguno de estos coches en la carretera? En una sola palabra: catalizadores. A pesar del intenso desarrollo, los catalizadores utilizados en las celdas de combustible PEM no han alcanzado los niveles de rendimiento, tiempo de vida o costo para que sean comercialmente viables. En un número reciente de Nature, Mark Debe, científico en el Programa de Celdas en 3M resumió el progreso reciente y las perspectivas para los catalizadores de celdas de combustible, incluidas las cuestiones de fabricación posibles.

Los fundamentos


En primer lugar, ¿qué es un catalizador? ¿Cómo puede una celda de combustible trabajar? ¿Cuál es la velocidad del aire? Una pregunta a la vez, por favor.

En breve, una celda de combustible convierte directamente la energía química almacenada en un combustible (como hidrógeno) en electricidad a través de la reacción con un oxidante (típicamente, el oxígeno). Todas las celdas de combustible consisten en un ánodo, cátodo y electrolito, este último sirve para clasificar el tipo de celda de combustible (por ejemplo, en una celda de combustible PEM, el PEM es el electrolito) y permite que las cargas se muevan entre el ánodo y el cátodo.

En el caso del hidrógeno y oxígeno en una celda de combustible PEM, el hidrógeno se divide en el lado del ánodo en protones y electrones. Los protones viajan a través de la membrana de electrolito mientras que los electrones se mueven a través de un circuito externo de generación de una corriente eléctrica al cátodo, donde las moléculas de oxígeno reaccionan con los protones y electrones que llegan para crear agua.

Cada pila de combustible individual genera sólo una pequeña cantidad de electricidad (menos de un voltio), por lo general la "celda de combustible" es en realidad una batería con un par de cientos de celdas. Cada celda o conjunto de electrodos en la membrana, se componen de dos electrodos (ánodo y cátodo) emparejados al PEM, rodeados por capas porosas que permiten la difusión del gas que lleva el combustible además del aire dentro y fuera del agua.

La reacción global que ocurre en una celda de combustible es el mismo que cuando se quema hidrógeno: hidrógeno más oxígeno produce agua y energía. En ambos casos, la energía del sistema debe alcanzar un nivel de activación determinado antes de la reacción que la procede. En el caso de la combustión, esto se hace con una fuente de ignición, tales como una chispa a alta temperatura. Celdas de combustible PEM, por otro lado, funcionan a temperaturas mucho más bajas. Aquí es donde el catalizador entra en juego: se reduce eficazmente la energía de activación mediante el aumento de la velocidad de reacción sin ser consumida en el proceso. (Por el contrario, las celdas de combustible de óxido sólido operan a temperaturas mucho más altas y por tanto no necesitan un catalizador).

Los catalizadores más eficaces en las celdas de combustible de hidrógeno utilizan platino, tanto para el ánodo y el cátodo. Este es el problema (uno de los problemas, por lo menos): el platino es caro. En este momento, el costo es de más de $ 1,400 dolares por onza, justo debajo de la del oro. La mayoría de la investigación se centra en el catalizador de forma que se utilice menos platino (o nada en absoluto), mientras que al mismo tiempo se aumente el rendimiento y durabilidad.

Con todo esto en mente, echemos un vistazo a donde estamos ahora.

El rendimiento actual


Es posible que no se den cuenta, pero en realidad algunos coches que funcionan con hidrógeno están en el camino. El Departamento de Energía de EE.UU. (DOE) se asoció con un par de grandes fabricantes de automóviles (Ford, Hyundai, Kia, Daimler y GM) para poner a prueba un total de casi 200 vehículos. De acuerdo con informes del Departamento de Energía [PDF], estas flotas de prueba utilizan por lo menos 0.4 miligramos de platino por centímetro cuadrado solamente en el cátodo. El objetivo para 2017 es utilizar 0,125 miligramos por centímetro cuadrado de metales del grupo del platino (que incluye rutenio, rodio, paladio, osmio, iridio y platino) totales entre el ánodo y el cátodo. En un conjunto de celdas de combustible valorado en ocho kilovatios por gramo de platino, esto funciona a ocho gramos en total por vehículo, cerca de lo que se usa en los actuales motores de combustión interna (con convertidor catalítico).

De acuerdo con un plan técnico de DOE [PDF], a partir de 2011 hemos alcanzado una densidad de potencia de alrededor de 5.3 kilovatios por gramo de PGM, y casi  0.15 miligramos por metro cuadrado de PGM. Sin embargo, la estabilidad del catalizador aún  no es la que necesitamos, lo que limita la vida útil de por debajo del objetivo 5,000 horas (correspondiente a unos 150,000 km).

Hay dos enfoques convencionales basados ​​en el catalizador de platino. El primero utiliza "Pt black", que son partículas de platino extremadamente pequeñas que absorben la luz muy bien y aparecen en negro, con alta superficie -y proporcional volumen- ideal para un catalizador, cuando la actividad de la reacción se produce en la superficie. El segundo consiste en nanopartículas de platino repartidas en las partículas de carbono negro más grande. Sin embargo, estos dos enfoques requeriría demasiado platino para alcanzar el rendimiento y durabilidad, objetivos necesarios para su uso en celdas de combustible comercialmente viables.

Frente a la difícil tarea de mejorar el funcionamiento del catalizador, pero al mismo tiempo, con una cantidad igual o menor de platino, los investigadores decidieron diseñar simplemente nuevas nanopartículas de catalizador.

Los nuevos diseños de catalizador


Debe clasificarse a los nuevos diseños de catalizadores de platino en cuatro categorías. Los catalizadores de superficie ampliada, bastante auto-explicativos. Al aumentar el área superficial, mediante la aplicación de películas delgadas sobre las partículas o el uso de una película porosa, estos catalizadores pueden aumentar la actividad de reacción mientras se utiliza menos platino en el proceso.

El enfoque más prometedor en esta categoría parecen ser los catalizadores de película delgada nanoestructurada (NanoStructured Thin-Film NSTF). En éstos, una película delgada con algunas capas de aleaciones de platino en una capa cristalina pequeña y delgada, orgánica. Cada segmento es menor que un micrómetro de altura y 2,000 veces más fino que un cabello humano. Puesto que los catalizadores NSTF son tan delgados, el volumen es bajo, lo que resulta en una alta área superficial con bajo volumen. Además, al ser orgánicas no son conductores, evitando cualquier corriente eléctrica corrosiva.

La segunda categoría consiste en nanopartículas de platino o de aleaciones de platino con baja relación de aspecto negro de carbono o partículas de óxido. Esto es similar a la aproximación convencional usando nanopartículas de platino, excepto que ahora el tamaño y forma de las nanopartículas se controlan para aumentar la actividad de reacción y reducir la cantidad de platino. Los tamaños son del orden de nanómetros y las formas son octaedros, cubos y formas más exóticas como octaedros truncados.

Otro enfoque prometedor en esta categoría utiliza nanopartículas core-shell (imagine una esfera hueca). En éstos, la cantidad de platino se reduce significativamente, ya que se elimina del núcleo y la actividad de reacción se puede aumentar mediante el llenado del núcleo con un material que optimiza las propiedades de la superficie de platino. Materiales en el núcleo incluyen aleaciones de paladio y paladio con cobalto, hierro, iridio u oro, así como aleaciones de otros metales como el oro y níquel. Sin embargo hay algunos problemas por superar con estos catalizadores. El rendimiento de las celdas de combustible actuales no es tan alta en las pruebas de laboratorio y los investigadores necesitan desarrollar un proceso de fabricación escalable, capaz de generar las partículas sin dejar un agujero en la capa de platino (para proteger el núcleo de la lixiviación).

Otras categorías de nuevos catalizadores a base de platino incluyen nanopartículas en los soportes de alta relación de aspecto (como la fibra de carbono o nanotubos) y nanopartículas no compatibles (como los nanotubos de platino, solos o nanopartículas). No obstante no hay diseños de catalizadores específicos en cualquiera de ellos que hayan demostrado un rendimiento especialmente alto.

Finalmente ¿Qué hay de evitar el platino y sus altos costos? Los investigadores han investigado alternativas utilizando catalizadores de paladio y sus aleaciones, pero el rendimiento apenas puede llegar a los convencionales catalizadores basados ​​en platino. Además, el precio no es menor.

Recientemente, de acuerdo con Debe, evitando catalizadores de metales preciosos por completo, utilizando metales como cobalto y hierro han demostrado mejoras de rendimiento enormes. Por ejemplo, un catalizador del cátodo a base de hierro alcanzó aproximadamente un décimo de la densidad de corriente de base comparado con cátodos de platino. Sin embargo, la vida útil de tales catalizadores parece ser más corto a los potenciales de voltaje necesario para su uso en celdas de combustible de vehículos, por lo que en esta área zona todavía necesitan algo de trabajo.

Perspectivas


Teniendo en cuenta todos estos enfoques en diferentes fases de desarrollo, ¿cuáles son los más prometedores? Varios de los conceptos mencionados anteriormente basados en nanopartículas, en particular, el NSTF y la forma/tamaño de catalizadores controlados al parecer pueden lograr los niveles necesarios para alcanzar los objetivos del Departamento de Energía. Incluso los catalizadores platino/carbón disponibles en el mercado se acercan, aunque la durabilidad aún no está donde necesita estar.

Por supuesto, incluso la tecnología de catalizador más prometedora todavía esta por ser fabricada. Hasta ahora, la cantidad de catalizadores necesarios para el pequeño número de vehículos de prueba (menos de 200 para la estudios DOE) no suponen gran parte de un desafío. Los objetivos de costos del Departamento de Energía se basan en medio millón de vehículos con celdas de combustible producidos por año, y los números empiezan a ser mucho mayores si la tecnología es la difusión en un mercado mundial más grande.

Para demostrar las escalas implicadas en la fabricación de catalizadores para celdas de combustible en un gran número de vehículos, Debe anunció algunos números. La producción de quince millones de vehículos (diez por ciento del mercado mundial en 2030), necesitaría 4.5 mil millones de celdas de combustible individuales si cada batería contiene a su vez 300 celdas (cada una de unos 300 centímetros cuadrados de superficie). Teniendo en cuenta que opera la línea de producción a plena capacidad, se requiere alrededor de 11,700 celdas individuales por minuto en todo el mundo). Los coches que se producen, alrededor de uno por minuto en cada línea de producción, requieren 20 líneas de combustible que tendrían que producir 10 celdas de combustible en un segundo.

¿Qué pasa con el catalizador, del que hemos pasado tanto tiempo hablando? En la densidad de área de de platino de 0,1 miligramos por centímetro cuadrado, los electrodos tendrán menos de dos micrómetros de espesor empleando métodos de recubrimiento. Para producir el número de celdas de combustible necesarios, las líneas de producción tendrán que funcionar a 20 celdas por minuto. Para ello sería necesario lo extraído en kilogramos de platino en año y medio por hora, o casi $ 1.7 millones de dólares de platino en un día. Cada día, cada línea de fabricación. Esto puede parecer alto, pero es similar al coste de los metales del grupo del platino ya utilizados en los automóviles.

Según Debe, estos requisitos de fabricación se llevan a un enfoque catalizador de revestimiento similar a la que ya se utiliza para producir la mayoría de gafas recubiertas con película multi-capa: todo seco de revestimiento vacío. En ese sector, los fabricantes ya están haciendo 250 millones de metros cuadrados de vidrio al año, mucho más que los 135 millones de metros cuadrados de catalizador que se necesitarían.

Debe considera que, con base en el progreso actual, el comportamiento del catalizador alcanzará su punto máximo dentro de unos años muy por encima de los objetivos del Departamento de Energía para el año 2017. De hecho, sostiene que la mejora del rendimiento no debe ser el objetivo principal de los investigadores en este punto de los catalizadores ya están donde deben estar. En cambio, la investigación debe centrarse en la creación de catalizadores que no sólo lleguen a los objetivos de la durabilidad y el poder, pero puedan ser fabricados en grandes volúmenes.

Según el artículo, aún no hay motivos para el optimismo. Los acontecimientos recientes en nuevos tipos de catalizadores ofrecen un mayor rendimiento sin reducir la vida útil o el aumento de los costos. Sin embargo, se requieren pocos años antes para que los conceptos más recientes se puedan incorporar en las celdas de combustible, con el tema de la manufactura de alto volumen que se avecina en el horizonte.

Referencia:

sábado, 9 de junio de 2012

¿De dónde vienen lo perros? Resulta que no se sabe muy bien

La mayoría de las razas antiguas no son tan viejas. Estos samoyedos a pesar de que se consideren antiguos (genéticamente hablando), probablemente no lo son. Créditos: Jurvetson/Flickr.
Los perros fueron las primeras criaturas que los seres humanos domesticaron y sus restos han sido encontrados junto a seres humanos desde antes de que incluso desarrollaran cosas básicas como la agricultura. Y, con el advenimiento de las herramientas moleculares, los investigadores fueron capaces de identificar el animal que fue domesticado (el lobo gris), así como un puñado de razas que parecen ser "antiguas" y se separaron cerca de la fuente de la domesticación.

Es un buen resultado, pero al parecer es probablemente equivocado. Esa es la conclusión de un estudio publicado en PNAS, que utiliza una combinación de pruebas genéticas, arqueológicas e históricas para argumentar que la historia de los perros domésticos es un lío que no se es capaz de desentrañar, sin recurrir a esfuerzos de gran escala en secuenciación del genoma.

Los desafíos de la clasificación de lo que sucedió a partir de restos arqueológicos son importantes. La fuente de los perros domésticos, el lobo gris, históricamente se extendió a través de toda Norteamérica, Europa y Asia. Los primeros perros domesticados, aparecieron hace unos 15,000 años, parecidos a los lobos, al ser sus descendientes, por lo que la identificación inequívoca de los animales domésticos se encuentra ante a un desafío natural. Y una vez se comenzó esclarecer, aparecieron en un área de distribución geográfica enorme. Los primeros restos aparecen en Europa, Oriente Medio y Kamchatka (la costa rusa del Pacífico) todos dentro de 1,500 años de diferencia. Dentro de otros mil años después los perros domésticos también estaban presentes en América del Norte.

Es imposible saber si estos sitios distantes representan eventos separados de domesticación, o si (y, en caso afirmativo, con qué frecuencia) los primeros perros domesticados terminaron con la cría de las poblaciones de lobos.

Todo esto parece tener pruebas de ADN para llevar un poco de claridad. Y, de hecho, los autores tienen una prodigiosa cantidad de datos a su disposición, habiéndose fijado en cerca de 50,000 variaciones individuales en secuencias de ADN, con una población de 1,375 perros y los lobos 19. Al igual que con los últimos estudios, éstos identifican un puñado de razas como "antiguas", es decir, que al parecer se separaron del árbol de la familia mucho más cerca del evento de domesticación. Estas razas son el Akita, Basenji, Eurasier, Spitz finlandés, Saluki, y Shar-Pei.

Sin embargo, los propios autores señalan que hay un problema con sus propios datos: ninguna de estas razas son de las regiones en las que los primeros restos de perros domésticos se encontraron y algunos provienen del rango normal del lobo gris. De hecho, la evidencia arqueológica sugiere que algunos de los datos genéticos no se pueden confiar en absoluto. Por lo que se puede decir es que los perros se extendieron por todo el Pacífico, en sólo 3,500 años, pero dos razas (dingos y el perro cantor de Nueva Guinea) a partir de ahí aparecen cerca de la base del árbol. Lo mismo va para el sur de África, donde los perros aparecieron en menos de 1,500 años, pero una raza específica (Basenjis) es incluso más antigua.

Entonces ¿Qué paso en el mundo? Los autores sostienen que se trata del producto de una historia extraña del perro doméstico. Por un lado, en gran medida se pueden descartar todos los datos genéticos provenientes de América. Todo lo que tenemos a partir de ahí indica que los perros fueron traídos en gran número por los colonos europeos que reducieron las razas autóctonas de estas regiones. (De hecho, una mutación sin pelo se encuentra en una raza "nativa" en México es idéntica a una encontrada en China).

En Europa, la mayoría de las razas no son originales. Por ejemplo, el Lobero Irlandés se ha propuesto como una raza vieja, pero los lobos fueron cazados y llevados a la extinción local hace 1,800 años y la versión original de la raza probablemente murió al poco tiempo. (La encarnación actual es probablemente el producto de un reciente intento de revivir las características mediante la crianza selectiva) prácticas similares se han aplicado en casi todas partes, la mayoría de las razas resultan de alrededor de 300 años o menos. Y luego las dos guerras mundiales crearon cuellos de botella de gran tamaño; muchas razas se han reducido a un puñado de individuos y algunos probablemente se desvanecieron por completo (sólo se han vuelto a criar desde entonces).

Este proceso de derivación de razas ha empeorado las cosas. En algunos casos, sabemos exactamente cómo se produjo una raza. Como señalan los autores, Eurasiers parecía antigua, pero recientemente se obtuvieron a partir de una mezcla de Chows, Keeshonds y samoyedos. Pero todas estas razas provienen de cerca de la base del árbol de familia de los perros. Como resultado, Eurasiers parecen una antigua raza de sí mismos, aunque sabemos que no lo son.

Los autores concluyen que las razas que parecen antiguos no se separaron de forma temprana del árbol de familia de los perros. En su lugar, simplemente los hemos mantenido y logrado mediante derivación masiva que ha tenido lugar durante los últimos cientos de años. Eso ha hecho que barajar todo lo demás parezca más viejo, haciendo parecer que una raza se considere aislada cuando en realidad solo se ha hecho ver antigua.

¿Alguna vez se ordenará todo esto? Los autores sostienen que el advenimiento de las pruebas de secuenciación del ADN económicas nos puede dar datos suficientes para empezar a resolver el misterio. Pero eso requeriría que decidamos conocer más sobre la historia del perro logrando los recursos necesarios para obtener tal secuencia.

Referencia:

miércoles, 6 de junio de 2012

IceCube capta neutrinos de alta energía

Observatorio de neutrinos IceCube. Créditos: Universidad de Wiscosin-Madison.
El Observatorio de neutrinos IceCube, un telescopio ubicado en el Polo Sur, que detecta las partículas subatómicas conocidas como neutrinos, ha medido las oscilaciones de neutrinos de alta energía.

IceCube fue diseñado principalmente para estudiar neutrinos producto de cuerpos astrofísicos tales como supernovas y estallidos de rayos γ. Sin embargo, la detección de oscilaciones de neutrinos - la transformación de un tipo de neutrino en otro - representa un nuevo territorio para el experimento científico, un área que cae bajo el paraguas de la física de partículas.

"Este es nuestro primer paso en la física de partículas", expresa Andreas Gross, un investigador postdoctoral en la Universidad Técnica de Munich, Alemania, quien dirigió el análisis de la oscilación.

Si bien los resultados son relativamente sorprendentes, los investigadores dicen que IceCube puede llegar a ser capaz de contribuir a una comprensión explícita de la jerarquía de la masa del neutrino, o cualquiera de los tres tipos de neutrinos conocidos, o 'modelos'.

Gross presentó el análisis el lunes en la 25va Conferencia Internacional de física de neutrinos y Astrofísica en Kyoto, Japón. La conferencia también marca la primera vez que el equipo ha presentado datos recogidos en la matriz de sensores completa, que se completó en diciembre de 2010.

El análisis de Gross muestra una desaparición en la atmósfera, ya que los neutrinos muón oscilan en neutrinos tau. Aproximadamente 300 mil millones de estos neutrinos atmosféricos se crean cada minuto debido a los rayos cósmicos que colisionan con las moléculas de aire en la atmósfera de la Tierra, añade Francis Halzen, físico de la Universidad de Wisconsin-Madison e investigador principal de la colaboración IceCube. IceCube detecta sólo una decena de neutrinos atmosféricos por hora. La energía de los neutrinos oscilantes se redujo a un intervalo comprendido entre 10 y 100 gigaelectronvoltios (GeV), siendo la señal más intensa la que alcanzó unos 30 GeV.

A pesar de que las oscilaciones de muones tau han sido bien estudiadas por el acelerador a base de experimentos con neutrinos de energías más bajas, los resultados confirman que las oscilaciones se comportan como se sospechaba en los rangos de mayor energía. Mark Chen, un físico de la Universidad de Queens en Kingston, Ontario, y el director del experimento de neutrinos SNO+ que se está construyendo en Sudbury, Ontario, dice que los resultados ofrecen una "nueva prueba" a altas energías. "Siempre es bueno para poner a prueba los modelos y las observaciones de prueba", agrega.

Investigadores de Super-Kamiokande, un experimento de neutrinos cerca de Higashi-Mozumi, Japón, también han detectado un pequeño número de oscilaciones de alta energía. Sin embargo, Yoshitaka Itow, un físico de Super-Kamiokande la Universidad de Nagoya en Japón, dice la resolución del experimento de energía por encima de 10 GeV es muy pobre y que por encima de 50 GeV, el experimento no puede resolver la energía de los neutrinos oscilantes en absoluto, por lo que no puede igualar las nuevas solicitudes de IceCube.

Profundizando


El detector IceCube consta de 86 cuerdas o cadenas largas de tubos fotomultiplicadores, espaciados a una misma distancia en un área de cerca de 1 kilómetro cuadrado, y desaparece en las profundidades de 1.4 a 2.4 kilómetros bajo la superficie del hielo. Cuando un neutrino interactua con una molécula de agua, la reacción produce un destello de luz débil que es detectada por los tubos fotomultiplicadores y traducido en una señal digital.

La mayor parte del tiempo, los científicos que laboran en IceCube estudian los neutrinos por encima de 1,000 GeV que emanan de fuentes astrofísicas. Pero para llegar a las oscilaciones de neutrinos, se debe tener como objetivo captar neutrinos de alta energía, porque la probabilidad de oscilaciones que se producen disminuyen con el aumento de la energía. Por encima de unos pocos cientos de GeV, las oscilaciones de los tres conocidos tipos de neutrinos son demasiado raras que vale la pena buscar. Así, en 2009, los investigadores IceCube instalaron el primer observatorio. Llamado DeepCore, se compone de ocho cadenas de fotosensores agrupados y en estrecha colaboración con la parte más profunda, el hielo más claro en la matriz de IceCube. DeepCore proporciona mediciones de precisión en el rango de decenas de GeV, de unos pocos a cien.

La colaboración IceCube está estudiando la posible adición de un relleno en un segundo lugar, llamado PINGU (Phased IceCube Next Generation Upgrade), que agrupará una serie adicional de cadenas en DeepCore y permitirá que IceCube detecte oscilaciones tan bajas como pocos GeV. A estas bajas energías, IceCube puede detectar no sólo más eventos de oscilaciones, sino también, los investigadores esperan que, los "efectos en la materia", un fenómeno en donde las oscilaciones de neutrinos en la materia son diferentes de las oscilaciones de neutrinos en el vacío. Este efecto es causado por la interacción entre los neutrinos y electrones en la materia, que cambia la masa efectiva de los neutrinos. La observación de efectos de materia puede hacer posible aprender más sobre las masas de los neutrinos, incluyendo la jerarquía de la masa del neutrino.

Referencia:



Nimiedades


En asuntos más mundanos el día de hoy el blog alcanzo la cantidad de 500,000 páginas vistas ¡Gracias a todos los que hacen esto posible!

sábado, 2 de junio de 2012

El transito de Venus frente al Sol

Transito de Venus frente al Sol. Créditos: NASA.
La tarde del próximo 5 de junio un el planeta Venus pasará frente al disco solar en un espectáculo que no volverá a repetirse hasta el 2117.

Venus es el segundo planeta más cercano al Sol y en ocasiones pasa por delante del Sol siendo este evento visible para la Tierra. La causa de este fenómeno tiene que ver con la alineación de cada planeta, el cual a pesar de que ambos planetas se alineen cada 1.6 años no siempre es posible verlo debido a que la inclinación de la Tierra es distinta a la de Venus, en ocasiones esta último pasa por debajo y en otras por arriba por lo que sus tránsitos solares son eventos poco comunes.

Nada nuevo bajo el Sol


Kepler fue de los primeros científicos en calcular el tránsito de Venus en el Siglo XVII, sus estudios concluyeron que el planeta cruzaría el disco solar en el año de 1631, pese a que los cálculos no eran tan precisos para determinar la hora exacta, nadie ni siquiera Kepler pudo confirmar lo predicho puesto que el científico alemán murió un año antes. Años más tarde dos científicos ingleses retomarían los cálculos realizados por Kepler y predijeron un nuevo transito para 1639, evento que despertó el interés en la comunidad científica.

Partiendo de esto concluyeron que un transito ocurre cuando el Sol, la Tierra y Venus se encuentran alineados y este último planeta se intersecta en el plano de la órbita de la Tierra. A pesar de que podría considerarse un eclipse solar por Venus, la distancia a la que se encuentra el planeta hace que se aprecie un diminuto punto negro.

Los tránsitos de Venus poseen una periocidad extraña. Cada ciclo tiene una frecuencia de 243 años y consta de dos etapas que empiezan de forma inmediata al cabo de ocho años. El primero tarda 105.5 años y el segundo 121.5 años. El evento más reciente ocurrió el 8 de junio de 2004 y se repetirá el próxima martes 5 de junio de 2012. Luego de estos eventos los siguientes serán en 2117 y 2125.

Edmund Hulley planteo en 1716 que la observación del tránsito de Venus desde diversos puntos serviría para poder calcular la distancia que existe entre la Tierra y el Sol. Más tarde la hipótesis de Hulley fue comprobada y además sirvió para poder mejorar los mapas.

Recomendaciones en México

Transito de Venus 2012. Créditos: Nibiru.

El tránsito de Venus sera observable en el país desde las cinco de la tarde, no obstante podrá er observable solamente durante la tarde.

Mientras más se encuentre el observador hacia el Norte y el Oeste más tiempo podrá ver el tránsito. Al respecto esta disponible un documento en PDF para poder ver la tabla de tiempos y ciudades en México y la NASA ha preparado un sitio sobre el tránsito de Venus.

Se recomienda usar protección como son filtro solares y por ningún motivo observarse sin protección alguna.

Referencia:

Related Posts Plugin for WordPress, Blogger...