viernes, 31 de agosto de 2012

Crimen y castigo, estilo chimpancé

Los chimpancés no castigar las agresiones a menos que sean la víctima.
Créditos: UMN.edu

Parece que cada vez más los científicos se preguntan si los grandes simios tienen una avanzada capacidad cognitiva, ante la cual la respuesta es sí. Los chimpancés, en particular, parecen rebasar los límites de lo que pensamos que los primates no humanos son capaces como: planificar el futuro, muestran altruismo y algunos tienen habilidades increíbles de memoria.

Recientemente, los investigadores se preguntaron si los chimpancés muestran un comportamiento sofisticado social llamado "castigo de terceros". Este comportamiento se produce cuando un individuo castiga a otro individuo por una transgresión aunque no sea directamente perjudicial para el castigo. Así que en caso de un chimpancé, podría implicar a un individuo castigar a un compañero de grupo por robar comida de un miembro de otro grupo.

El comportamiento es considerado cognitivamente avanzado, como el que castiga no sólo debe comprender que la transgresión es injusta a pesar de no estar involucrado, también debe estar dispuestos a incurrir en un costo material y sin aparente beneficio inmediato del castigo. Castigos a terceros se ven a menudo en las sociedades humanas y se cree mantienen la cooperación, pese su costo. Debido a que los chimpancés viven en grandes grupos y complejos sociales, han evolucionado en increíbles habilidades sociales y los investigadores pensaron que era posible que pudieran demostrar este tipo de comportamiento.

Durante cada prueba en el experimento, se mantuvieron tres chimpancés en jaula separadas pero adyacentes: el "ladrón", la "víctima" y un tercer individuo, que tenía la capacidad de repartir castigos. Los investigadores colocaron una bandeja de comida en la jaula de la víctima y a través de un sistema de poleas, el ladrón podría tirar de esta bandeja cargada de comida a su propia jaula. Una vez que el alimento fue robado de la víctima, el tercer individuo tenía la oportunidad de contraer la bandeja que estaba en posesión del ladrón, por lo que la comida desaparecía y con ello castigar al ladrón por su conducta desleal.

Como control, los experimentadores también probaron escenarios en los que el investigador movía la comida a la jaula del ladrón (en lugar de que el ladrón la robara), otra donde la comida se colocaba en una jaula vacía, y otra donde el ladrón podría tomar alimentos sin afectar a la víctima. Si el castigador potencial colapsaba la bandeja sólo en situaciones en que el ladrón tomaba posesión de la comida de la víctima, el estudio podía concluir que castigo a terceros existe en esta especie.

Sorprendentemente, no hubo evidencia de castigo a terceros entre los chimpancés. Dada la oportunidad, el castigador potencial no colapsaba la bandeja de comida con mucha más frecuencia cuando el ladrón había robado en realidad la comida de una víctima que en otras situaciones.

Hay dos posibles explicaciones para estos resultados: o bien los chimpancés no entendían la situación o simplemente no exhiben castigos terceros. Para distinguir entre estas posibilidades, los experimentadores realizaron una segunda prueba de los ensayos de castigo, donde sólo había dos chimpancés implicados: un ladrón y una víctima capaz de castigo. La diferencia de los ensayos anteriores es que aquí, el castigador potencial también era víctima.

En estos estudios, los chimpancés se apresuraron a castigar al ladrón con el colapso de la bandeja de comida (pero sólo si eran socialmente dominante al ladrón). Estos resultados sugieren que, aunque los chimpancés entienden el comportamiento como injusto y toman represalias cuando están personalmente afectados, no se involucran en el castigo cuando no son más que un mero espectador. Parece que, para los chimpancés, el castigo puede funcionar para obligar a otros a cumplir, en lugar de desalentar el comportamiento injusto.

Estos resultados tienen implicaciones importantes para nuestra manera de entender el comportamiento social de nuestra especie y otros. Primero, el castigo a terceros se cree mantiene la cooperación en los seres humanos ante el engaño desalentador, sin embargo, mientras que los chimpancés son conocidos por cooperar, no parecen participar en este tipo de castigo. Esto plantea la cuestión de si los humanos y la cooperación de los grandes simios se mantienen en diferentes formas, Además, si el castigo a terceros no está grabado en nuestra historia evolutiva, ¿cómo y cuándo los seres humanos adquirieron nuestra inclinación a castigar a otros por las transgresiones en las que no eramos victimas? Por ahora, estas preguntas siguen sin respuesta.

Referencia:
Kate Shaw, "Crime and punishment, chimpanzee-style", Ars Technica.

miércoles, 29 de agosto de 2012

Después de Higgs: El paisaje para una nueva partícula


Los físicos están planeando aceleradores de gran alcance que se van a necesitar para estudiar el bosón de Higgs y sus interacciones en detalle.
Créditos:Brendan Monroe.
Cuando los físicos de partículas de todo el mundo se despertaron el 5 de julio, las escenas de alegría, alivio y lágrimas estaban todavía frescas en su mente -junto con una gran pregunta sin respuesta. Los recuerdos eran de las celebraciones del día anterior, cuando los investigadores anunciaron que una nueva partícula muy parecida a la del bosón largamente buscado bosón de Higgs por fin se había encontrado en los datos del Gran Colisionador de Hadrones (LHC) en el CERN, Laboratorio de Física de Partículas Europeo fuera de Ginebra en Suiza. La pregunta ahora pretende definir el futuro de toda su disciplina ¿Es la partícula bosón de Higgs como lo predice el modelo estándar con 40 años de edad, la versión más simplista para la física de partículas? ¿O es algo más complejo e interesante que apuntará hacia una teoría más profunda y completa?

Los físicos esperan que el LHC vaya a darles algunas respuestas en los próximos años. Pero ya están afilando sus argumentos de una máquina para continuar el legado de LHC -una "fábrica de Higgs que iluminaría esa teoría con mediciones mucho más precisas que el LHC puede proporcionar.

"Sabemos que debe haber una nueva física más allá del modelo estándar", comenta Barry Barish, físico del Instituto de Tecnología de California en Pasadena. Eso está garantizado y otros físicos sostienen, que la existencia de fenómenos que no encajan fácilmente en el modelo, tal como el invisible andamio de 'materia oscura', el cual se sospecha comprende una cuarta parte de la densidad de masa del Universo, o la capacidad de las partículas llamadas neutrinos a "oscilar" de una forma a otra. Barish encabeza el consorcio global que está diseñando el Colisionador Lineal Internacional (ILC), un acelerador candidato de la gran máquina que viene. Aunque nadie sabe todavía lo que la nueva física implicará, "nuestra estrategia es estar listo ante todo en lugar de sólo eventualidades".

El costo, las escalas de tiempo y las capacidades de las máquinas candidatos CIT y otras serán examinadas en el taller de Estrategia Europea de Física de Partículas en Cracovia, Polonia, los días 10-12 de septiembre, donde se establecerán las prioridades para este campo en Europa durante los próximos cinco años. Físicos estadounidenses de partículas está planeando un ejercicio similar en una reunión en Snowmass, Colorado, en junio de 2013.

Pero los planes son una cosa, la realidad es otra. La financiación de cualquier máquina nueva, sobre todo en una crisis económica, será una "tarea difícil", reitera Christopher Llewellyn-Smith, director de investigación de energía en la Universidad de Oxford, Reino Unido, y director del CERN en el momento en que LHC fue aprobado. "Va a depender de qué otras nuevas partículas en el LHC se encuentren, ya sea en las nuevas instalaciones que apoye unánimemente la comunidad, y en su costo", explica. "Incluso si el caso de la física es tan fuerte como para que el LHC, y el costo es tal que se puede hacer con una constante global de alta energía presupuesto física, todavía será difícil".

La vida en el LHC


Un tema clave en discusión en el taller de Cracovia será hasta qué punto los equipos del LHC puede ir en la medición de las propiedades de la nueva partícula. Los físicos que trabajan allí pueden esperar muchos más datos, además de la mejora importante en los próximos diez años.

Ellos ya tienen una buena noticia: la masa de la partícula de Higgs -alrededor de 125 mil millones de electronvoltios (GeV)- que resulta se encuentra hacia el final del rango de luz que los teóricos habían calculado. Esto tiene dos importantes consecuencias: significa que un relativamente modesto nuevo colisionador sería suficiente para producir el bosón de Higgs a granel y le da a la partícula de nuevo una gran variedad de modos de desintegración que hará que sea más fácil para los físicos estudiar sus interacciones con modelo estándar de partículas.

Una de las prioridades, por ejemplo, es comprobar la predicción del modelo estándar para la forma en que el Higgs interactúa con fermiones: entidades como electrones, muones y quarks que tienen un momento angular intrínseco, o 'spin', de ½ en unidades cuánticas. La probabilidad de una interacción con cada partícula se supone que es proporcional a su masa - no menos importante, ya que, en el modelo estándar de interacción, con el Higgs es lo que crea la masa.

Otra prioridad es verificar que la nueva partícula con espín intrínseco tiene el valor estándar de 0 en el modelo. Los físicos del LHC consideran que la nueva partícula es un bosón -lo que significa que su giro en unidades cuánticas es 0, 1, 2 o algún otro número entero- y que el entero no puede ser 1, ambas conclusiones se derivan de la decadencia observada de la partícula en parejas de los fotones, que son spin-bosones. Los físicos no tienen locas teorías que involucran bosones con un giro mayor que 2, dice el físico Albert de Roeck en CERN, coordinador científico del equipo que trabaja en el detector Compact Muon Solenoid en el LHC, por lo que su tarea consiste ahora en determinar si se trata de un espín-2 o un bosón de espín-0 'escalar' como se predijo.

El LHC resolverá el caso de spin, explica el director general del CERN, Rolf Heuer, pero no está tan claro hasta qué punto el LHC puede ir probando el nuevo bosón en acoplamientos a otras partículas -en particular, la "auto-interacción" por la cual Higgs proporciona masa-. En la actualidad, todos los físicos del LHC pueden decir que el nuevo bosón y sus interacciones con otras partículas son consistentes con las predicciones del modelo estándar dentro de las incertidumbres de medición actuales de 30-40%. De acuerdo a Roeck, el colisionador debe conseguir esas incertidumbres hasta un 20% para finales de este año, y posiblemente hasta "un pequeño porcentaje" en los próximos 10-15 años.

Pero eso, para muchos físicos, es precisamente por lo que se necesita una máquina de nueva generación. Una prueba realmente exigente del modelo estándar, lo que pondría de manifiesto desviaciones pequeñas que podrían señalar el camino hacia mejores modelos, son las demandas de los investigadores que miden la interacción del Higgs con otras partículas a menos de 1% de incertidumbre, posiblemente tan sólo el 0,1% si la precisión del valor teórico de predicciones mejorará en los próximos años. Y eso es un nivel que el LHC tiene poca posibilidad de alcanzar. La máquina es como un mazo: viajan paquetes que contienen cientos de miles de millones de protones a energías que eventualmente alcanzar los 7 billones de electronvoltios (TeV) por haz. Esto es bueno para el descubrimiento de nuevas partículas masivas, pero no tanto para hacer mediciones de precisión, ya que los protones son mares caóticos de quarks y gluones que hacen desordenadas las colisiones.

En cambio, todas las propuestas para una máquina de nueva generación exige algún colisionador de tipo leptón. Los leptones, son un grupo de partículas de luz que incluye electrones, muones y neutrinos, que eluden el desorden al no participar en las fuertes interacciones quark-gluón que los producen. Los leptones son elementales e interactúan sólo a través de electromagnétismo relativamente débil y con fuerzas débiles. Como resultado, las máquinas de leptones son más como escalpelos que mazos: sus colisiones pueden ser sintonizados a la masa de una partícula individual y la pulverización de partículas creadas sería relativamente limpias y sencillas de interpretar.

Muones o electrones


Una opción relativamente barata, argumentan algunos físicos, sería colocar los tubos de un nuevo acelerador LHC en el lado del túnel existente y utilizarlo para colisionar haces opuestos de electrones y electrones antimateria (más conocidos como positrones). Esta propuesta, conocida como LEP3 en honor del Gran Colisionador Electrón-Positrón (LEP) que ocupaba antes de la construcción del túnel del LHC comenzó en 2000, surgió sólo en el año pasado como prueba preliminar para la nueva partícula se acumulaban. LEP3 podría producir bosones de Higgs con sólo 120 GeV por haz -una energía total de 240 GeV- sólo una muesca hasta el máximo de LEP original de 209 GeV. Su producción se impulsaría aún más por los recientes avances tecnológicos que permitan una tasa de colisión, o "luminosidad", unas 500 veces mayor que el LEP podría haber logrado.

La construcción de LEP3 en el túnel del LHC podría permitir que algunos de los detectores de partículas del LHC sean reutilizados, haciendo uso de la infraestructura existente del CERN para energía, mantenimiento y toma de datos. Tales ahorros traerían a LEP3 un costo estimado de hasta $ 1 mil millones y $ 2 millones de dólares de EE.UU., muy por debajo de la etiqueta del precio de LHC estimado en $ 6 mil millones. "La idea es no dar por acabado", dice Alain Blondel un promotor de esta idea de la Universidad de Ginebra, que señala que no debe haber espacio para construir el nuevo colisionador de leptones sin quitar el LHC: el túnel estaba destinado a tener ambos tipos de colisionador funcionando simultáneamente.

A pesar de considerar todas las ventajas LEP3 no sería capaz de estudiar algo mucho más pesado que el Higgs. Y eso podría ser un problema en si, ante el cual muchos físicos de partículas mantienen la esperanza, el LHC termina descubriendo nuevas partículas más pesadas que los teóricos predicen a partir de ideas tales como la supersimetría o incluso encontrar dimensiones extra. La intensificación de la energía de LEP3 para estudiar las partículas más pesadas sería virtualmente imposible debido a las pérdidas por radiación de sincrotrón -el flujo de fotones emitidos cuando cualquier partícula cargada que se mueve a lo largo de una trayectoria curva. Esto no se trata tanto de un problema de los protones del LHC, debido a las pérdidas de energía de la radiación de sincrotrón que caen dramáticamente para partículas de mayor masa, protones y electrones son mayores en un factor de casi 2,000. Pero las pérdidas en LEP3 serían severas. La única manera de aumentar la energía del acelerador sería aumentar su radio, lo que requeriría un nuevo túnel. Algunos físicos han hablado de la perforación de un nuevo túnel extendido bajo el Lago Ginebra y la instalación de una estructura circular de 80 kilómetros electrón-positrón, aunque eso no es algo para el futuro previsible, comenta Heuer.

Mientras tanto, los físicos de todo el mundo han estado explorando conceptos para un alternativo Colisionador Higgs que sería mucho más pequeño que LEP3, quizás con tan sólo 1,5 km de circunferencia. Para colisionar haces de muones, se requieren partículas como electrones con 207 veces la masa de un electrón, tal máquina tiene insignificantes pérdidas de radiación de sincrotrón y podría producir decenas de miles de bosones de Higgs de una energía de colisión total de sólo 125 GeV, en oposición a 240 GeV de LEP3. También sería capaz de emplear energías mucho mayores, para estudiar partículas más pesadas.

Sin embargo, un colisionador de muones se enfrenta a grandes obstáculos propios, sobre todo el hecho de que los muones se descomponen en electrones y neutrinos con una vida media de 2,2 microsegundos. Eso es mucho tiempo en el reino subatómico, donde la vida de partículas a menudo se mide en fracciones de una billonésima parte de un nanosegundo. Sin embargo, en términos de ingeniería, es prácticamente instantánea. Muones para un acelerador tendrían que ser producidos por colisiones de haces de protones en un blanco de metal; luego 'enfriados', o alineados en un haz ordenado, y por último se aceleró a la energía requerida, todo en un marco de tiempo considerablemente más corto que el parpadeo de un ojo. Ese desafío está siendo abordada por el experimento de enfriamiento de ionización de muones (MICE) en el Laboratorio Rutherford Appleton cerca de Oxford, Reino Unido. MICE se espera concluya sus estudios en 2016, momento en que la tecnología de enfriamiento puede ser lo suficientemente avanzada como para el CERN pueda usarlo para construir una fábrica de neutrinos -un paso hacia un colisionador muón- que dispare haces de muón de neutrinos a través de la Tierra a un Detector a miles de kilómetros de distancia, como se propone en Finlandia.

Sin embargo, muchos físicos se muestran escépticos. "Dudo que vaya a ver un colisionador de muones trabajando en mi vida", opina Brian Foster, físico de la Universidad de Oxford. "Hemos estado tratando de trabajar con muones enfriado durante más de diez años y es simplemente muy difícil".

Foster es el director regional europeo para el concepto de un colisionador lineal rival electrón-positrón. Este tipo de máquina sería esencialmente un acelerador largo, con electrones moviéndose por el cañón de una misma longitud y positrones desplazandose en línea contrario con colisiones de paquetes en medio. La falta de curvatura eliminaría las pérdidas de radiación sincrotrón.

Ideas para una gran colisionador lineal comenzó a surgir en la década de 1980, y, finalmente convergieron en dos conceptos. ILC desarrollado por un consorcio mundial de laboratorios y universidades, posería unos 30 kilómetros de largo y utilizaría la tecnología probada de superconductores del acelerador para alcanzar energías de 0,5 TeV, con la posibilidad de actualización a 1 TeV. El equipo de la Coalición está pronto a publicar un informe sobre el diseño técnico y el costo del proyecto se estima en US $ 6,7 mil millones.  Collider Linear Pact (CLIC), defendido por el CERN, tendría casi 50 kilómetros de largo y utiliza nuevas técnicas de aceleración para alcanzar energías de 3 TeV. Los costos de CLIC son menos claros que los de ILC ya que sólo un informe de diseño conceptual está disponible, pero sus energías superiores abren nuevos campos para el descubrimiento, así como para medidas de precisión.

El rendimiento de cualquier diseño ha sido ampliamente estudiado teóricamente, pero en la práctica es una "pregunta abierta", según Blondel, portavoz de MICE. Señalando el desempeño del Colisionador Lineal de Stanford (SLC) en Menlo Park, California, alcanzó casi energías de 100 GeV. "El SLC finalmente funcionó muy bien, pero nunca produjo la potencia que ellos querían. Era una máquina muy dura y ahora con ILC o CLIC estamos hablando de algo que es mucho más difícil."

Sin embargo, para muchos, si no la mayoría de físicos de partículas, alguna forma de colisionador lineal parece ser la mejor apuesta. En junio, el Comité Internacional para Futuros Aceleradores, con sede en el Fermilab en Batavia, Illinois, trajo la ILC y CLIC juntos bajo un solo proyecto Linear Collider, encabezado por el ex director de LHC Lyn Evans. Su objetivo es ofrecer una propuesta única de colisionador lineal a finales de 2015.

Un plan sensato, piensa Evans, es construir un colisionador lineal a partir de 250 GeV para sondear el bosón de Higgs, a continuación, aumentar su energía hasta llegar a 500 GeV. En ese momento se podrían producir pares de bosones de Higgs y permitir a investigadores estudiar cómo parejas de Higgs y también como interactúa con la mayor partícula de materia, el quark top. El ir a energías más altas es técnicamente factible, dice, pero requiere más electricidad -lo más digno de una estación de energía medio. En la práctica, dice, "Creer que un límite superior en el poder [en el nuevo sitio hipotético] es el máximo que se puede suministrar al sitio CERN, que es de 300 MW."

Tecnología aparte, la cuestión de la sede de miles de millones de dólares que será el próximo colisionador. Una regla de oro es que el país anfitrión ponga hasta la mitad del costo con la expectativa de rentabilidad a largo plazo económico, añadee Foster. Pero esto no es un período bueno a nivel  económico para estar haciendolo, especialmente para un proyecto que, desde el punto de vista político, no tiene ningún beneficio a corto plazo a los votantes.

Hacia la globalización


Si un colisionador lineal debe ser aprobado en los próximos años, comparte Evans, es probable que no se construirá en el CERN. A pesar de la riqueza en infraestructura técnica y política del laboratorio europeo, tiene sus manos llenas con el LHC, que ni siquiera está previsto que alcance su diseño energía de 7 TeV por haz hasta 2014 y también está programado para someterse a una actualización de luminosidad en torno a 2022. "Yo apostaría que la máxima prioridad de la estrategia europea será continuar explotando y actualizar el LHC", agrega John Womersley, director ejecutivo de Britain's Science and Technology Facilities Council, que controla el gasto del país en física de partículas.

Estados Unidos es también un lugar poco probable para un nuevo acelerador, opina el director del Fermilab Pier Oddone, quien es presidente del Comité Internacional para Futuros Aceleradores. "Algo drástico tendría que cambiar", explica. Tras el cierre del colisionador Tevatron de Fermilab, que cruzó la frontera de energía procedente de los Estados Unidos a Europa. Así que la actual estrategia de EE.UU. es concentrarse en la "intensidad de frontera", el estudio de las interacciones partículas raras producidas por ejemplo mediante intensos rayos de neutrinos. Sin embargo, dice Oddone, "teníamos un presupuesto bastante corto a principios de este año y tuvo problemas de adaptación en el centro de [un experimento basado en neutrinos] que cuesta una décima parte de CDI". Oddone dice que también sería "muy difícil" en este momento para los Estados Unidos aportar mucho a un colisionador de leptones construido en otro lugar.

Muchos observadores creen que, con mucho, el más fuerte candidato para albergar el próximo proyecto es Japón. Después de todo, señala Evans, Japón hizo una importante contribución al LHC en la década de 1990, cuando el proyecto estaba bajo presión financiera. "Tal vez es hora de que Europa devuelva el favor", explica. El primer ministro japonés hizo referencias positivas a ILC, justo después de los primeros avistamientos preliminares del bosón fueron anunciados. Hay un olor de fondos adicionales, ya que el nuevo acelerador se está debatiendo como parte de un plan económico más amplio para impulsar las regiones devastadas por el terremoto de marzo de 2011, la idea es que sea el centro de los laboratorios de investigación que comprenden una "ciudad internacional" , con zonas industriales y centros educativos. Y a medida que los físicos de partículas japoneses actualicen su hoja de ruta de cinco años este año, ILC se mantiene en la cima de su nuevo proyecto, la lista de deseos. En concreto, explica Atsuto Suzuki, director general del laboratorio KEK en Tsukuba, la recomendación de la comunidad fue que "Japón debería asumir el liderazgo de la pronta realización de un colisionador electrón-positrón lineal si se confirma como tal el bosón de Higgs en el LHC ".

Así es ¿qué el ILC finalmente parece una apuesta segura? "¡Por Dios, no!", explica Foster, "pero esta es la mejor oportunidad que hemos tenido en mucho tiempo". Womersley da probabilidades de que ILC sea la mejor opción en un 50:50. "No hay que dar por sentado que el dinero este disponible sólo porque el bosón de Higgs se ha encontrado", reitera, señalando que también hay casos fuertes para la próxima generación de experimentos de neutrinos, por ejemplo. Se necesitarían alrededor de diez años innovando para operar un CDI, estima Oddone, más el tiempo de preparación. "Estamos hablando de 2025 como muy pronto, pero ¿lanzar un proyecto de gran envergadura antes de saber qué más podría encontrar el LHC? Puede haber cosas mucho más apasionantes que el bosón de Higgs ".

Para muchos físicos de partículas, el escenario ideal es LHC  en la exploración de la frontera de alta energía en Europa, varios experimentos con neutrinos que exploran la frontera de intensidad en los Estados Unidos y un nuevo leptón colisionador en Japón fijaron los detalles de todas las nuevas partículas exóticas que hasta el momento no han aparecido en las colisiones del LHC. "Me encantaría vernos en esa dirección, si los países ponen su peso detrás de los programas en cada región", considera Terry Wyatt, un físico de la Universidad de Manchester, Reino Unido, que trabaja en el detector ATLAS en el LHC.

Como siempre en el mundo de la gran ciencia, donde los sueños se hacen realidad es una cuestión de hacer la venta a los extranjeros. "Estas cosas probablemente se resolveran fuera de la esfera de física de partículas", dijo Oddone. "Podría ser una llamada telefónica entre un presidente y un primer ministro la que decida".

Referencia:

sábado, 25 de agosto de 2012

Adiós Neil Armstrong, un héroe para la humanidad

Neil Armstrong junto al avión norteamericano X-15. Armstrong voló el X-15 siete veces alcanzando una velocidad máxima de 3,989 millas por hora. Créditos: NASA

Neil Armstrong -quien murió a la edad de 82 años- comandante del Apolo 11, inició su carrera en la NASA casi una década antes como piloto de pruebas de investigación.

Siendo un ingeniero aeroespacial entrenado, Armstrong era un "ingeniero con calcetines blancos, protector de bolsillo y nerd" como se describía a sí mismo, quien trabajó en pruebas de vuelo a lo largo de la década de 1960, volando desde un avión del tipo ala delta remolcado detrás de un biplano, a un hipersónico avión propulsado por cohetes que volaban hacia el borde del espacio.

Neil Armstrong nació en Wapakoneta, Ohio y comenzó la construcción de modelos de aviones en la escuela primaria. Narra el biógrafo James Hansen, que en un principio quería ser un diseñador de aviones, pero "más tarde pasó a pilotear, porque le pareció que un buen diseñador debe conocer los aspectos operacionales de un avión".

El futuro astronauta piloteo un avión tan sólo unas semanas después de su decimosexto cumpleaños. Antes de ser seleccionado como astronauta, Armstrong fue un aviador naval que voló aviones de combate F9F Panther en la Guerra de Corea. Después de la guerra, se convirtió en un piloto de investigación para el Comité Consultivo Nacional para la Aeronáutica, predecesor de la NASA. Como piloto de investigación en NACA y más tarde de la NASA, voló el cohete Bell X-1B y X-15 junto con una amplia variedad de aeronaves a chorro y de hélice, un total de más de 200 tipos diferentes

Durante su tiempo en el programa X-15, Armstrong demostró sus habilidades de ingeniería para trabajar en el sistema del avión hipersónico de control de vuelo, así como el simulador relativamente primitivo utilizado para desarrollar perfiles de vuelo del primer avión con alas para volar al espacio. Durante el vuelo más alto de los siete vuelos en el X-15 , ascendió a 63,246 metros. Cuando el motor se detuvo (como estaba previsto) él se deslizaba de vuelta a la tierra, probando un nuevo sistema de control cuando rebotaba en la parte superior de la atmósfera, saltando más allá de Edwards Air Force Base en el desierto de Mojave y consiguiendo que volara cerca de Pasadena. Tal vuelo que luego llamaría "cuestión de aprendizaje" llego a volar 12 minutos y 28 segundos.

Al mismo tiempo, Armstrong trabajaba en el programa X-15, que también colaboró en el proyecto Boeing X-20 Dyna-Soar, que formaba parte del programa "Man in Space Soonest (hombre en el espacio lo más pronto posible)" de la Fuerza Aérea. El X-20 iba a ser una nave espacial con alas precursor temprano de los orbitadores del transbordador espacial. Como piloto de pruebas e ingeniero, Armstrong voló una modificación del avión de combate Douglas F5D -ahora en exhibición en el Museo de Neil Armstrong en Wapakoneta- en una serie de vuelos para el desarrollo de los procedimientos de lanzamiento que iban a ser utilizados para la nave espacial X-20.

Su porte tranquila de Armstrong fue demostrada después de un vuelo en Vehículos  de Formación Lunar Lander (LLTV). Conocidos cariñosamente como "somieres de vuelo", el LLTV fue utilizado para entrenar a los astronautas que hicieron acercamientos a la superficie lunar y fue básicamente un propulsor con un motor de jet grande que podía controlar la posición del vehículo durante el vuelo.

Se consideraba un avión muy difícil y peligroso de volar. En un vuelo LLTV en 1968, Armstrong perdió el control de la aeronave debido a una fuga de carburante causado por las condiciones de viento. Pudo controlarlo sólo unos momentos antes de que se estrellara convertido en una bola de fuego. De acuerdo a la biografía de James Hansen, su compañero astronauta Alan Bean lo vio una hora más tarde después de la comida y encontró a Armstrong en su escritorio simplemente "trabajando con unos documentos". Bean no creía lo que otros le habían contado sobre el accidente por lo que le preguntó Armstrong, que respondió: "Perdí el control y tuve que rescatar la maldita cosa".

En una reunión de la Sociedad de Pilotos de Prueba Experimentales en 2007, Armstrong describió el desarrollo y uso de la LLTV.

Armstrong se unió al cuerpo de astronautas como parte de los "nueve nuevos" y voló por primera vez en Gemini 8, junto con David Scott. La misión Gemini 8 se creó para hacer la primera cita y acoplamiento con otra nave en órbita para probar los procedimientos de atraque. Tras el acoplamiento con Agena, un vehículo blanco sin tripulación, la nave espacial Gemini y Agena comenzaban a girar. Armstrong desconectaba a Agena y luego comenzaba a girar aún más rápido, aproximadamente una revolución por segundo. Frente a una situación de prueba de vuelo no planificado, una vez más, Armstrong puso su experiencia como piloto de pruebas e ingeniero de trabajo y decidió utilizar el sistema de control de reentrada para frenar la rotación. La solución funcionó, pero cortó el vuelo que terminó en menos de 11 horas.

Después de la experiencia de vuelo Gemini, Armstrong fue el comandante de reserva para Géminis 11, pero no voló al espacio. Fue elegido luego como comandante de reserva para Apolo 8, la primera misión a abandonar la órbita terrestre. En diciembre de 1968, mientras que Apolo 8 aún estaba en el espacio, a Armstrong se le ofreció el cargo de comandante del Apolo 11. En ese momento, no había garantía de que eso significaba que estaría al mando de la misión a la Luna. Aún había mucho que podía salir mal y forzar un retraso.

Apolo 8 fue sólo el tercer vuelo del enorme cohete Saturno V y los primeros astronautas viajaron en esta misión. La misión combinada de varias pruebas que se esperaban inicialmente se distribuyeron en algunos vuelos. La audaz decisión de proceder y exitosa misión Apolo 8 fue crítica en el vuelo de Apolo 11. Armstrong dijo más tarde en su biografía: "No me puedo imaginar la gestión de la NASA, en cualquier período de tiempo posterior estar dispuesto a asumir ese tipo de paso".

Por supuesto, tenía menos de un año después de que Armstrong diera el paso más grande. Después de un viaje de tres días a la Luna, Armstrong, Aldrin y Collins entraron en órbita lunar el 19 de julio. El 20 de julio, Armstrong y Aldrin comenzaron su descenso hacia la superficie interior Eagle, el módulo de aterrizaje lunar. El vuelo a la superficie no inició como estaba previsto. Durante el descenso varias alarmas del equipo de vuelo guiado distrajeron a los astronautas. Los ordenadores de a bordo fueron inundados con información extraña procedente del radar, pero las alarmas se determino no eran el problema.

Pero Armstrong y Aldrin también notaron que estaban volando más rápido de lo esperado para el descenso en la superficie lunar y probablemente no descenderían en el lugar propuesto para el aterrizaje. Eagle ya había rebasado 1,500 metros cuando Armstrong vio que se dirigían a un cráter. Pensó que esta podría ser una buena opción, ya que tendría "más valor científico estar cerca de un gran cráter". Pero la fuerte pendiente y grandes rocas no eran garantía de un buen lugar.

La mayoría de las famosas fotos de la superficie lunar por Apolo 11 son del astronauta Buzz Aldrin. Esta es la única foto que muestra a Neil Armstrong de pie sobre la superficie de la luna. Créditos: NASA.

A medida que continuó volando sobre las áreas cubiertas con grandes rocas y cantos rodados, Armstrong tomó el control de Eagle y continuó volando de forma manual. Empleando su entrenamiento en la LLTV para maniobrar, logro realizar el descenso en la superficie. Pero todas las maniobras fueron usando el propulsor. A 200 metros sobre la superficie, Armstrong finalmente fue capaz de encontrar un lugar para aterrizar.

Aldrin: Once [pies por segundo] hacia adelante. Al bajar bien. Doscientos metros, cuatro y medio hacia abajo.
Armstrong: Voy hacia ese ese cráter.
Aldrin: Cinco y medio hacia abajo.
Armstrong: Tengo un buen lugar.
Aldrin: Ciento sesenta pies, seis y media hacia abajo. Cinco y medio abajo, nueve hacia adelante. Tiene buen aspecto.

Al estar a 22 metros, el Control de Misión en Houston determinó que Eagle solo tenía 60 segundos de combustible. Armstrong dijo que no estaba preocupado por la situación terriblemente escasa de combustible, "por lo general en la LLTV no era inusual aterrizar con 15 segundos en el reloj de combustible".

Unos 40 segundos más tarde, Armstrong hizo algunas maniobras finales antes de anunciar que el aterrizaje se había logrado.

Armstrong: Shutdown.
Aldrin: Muy bien. Parada del motor.
Houston: Tenemos que copiar, de Eagle.
Armstrong: Houston, Base Tranquility aquí. Eagle ha aterrizado.

Más tarde se determinó que Eagle tenía unos 50 segundos de combustible aún para maniobrar. La mayoría recuerda a Neil Armstrong como la primera persona en caminar sobre la luna. Como piloto de pruebas, se refieren a menudo como la primera persona que logro aterrizar una nave espacial en la Luna, algo que le gustaba señalar fue la parte más difícil de la misión desde su punto de vista.

Después de su histórico descenso por la escalera y haciendo su "salto gigante para la humanidad", Armstrong y Aldrin pasarían dos horas y 36 minutos en la superficie de la luna.

La atención masiva del éxito de la misión, fue para Armstrong algo incómoda después del Apolo 11. Armstrong se retiró de la NASA en 1971 y pasó a ser profesor de ingeniería aeroespacial y sirvió en el consejo de administración de varias empresas.

Armstrong continuó volando aviones de aviación general hasta hace poco, al pasar de un Beechcraft Bonanza hace muchos años a un Cessna 310 en la década de 1990 y finalmente, un Cessna 421. También continuó volando planeadores y de vez en cuando se le dio la oportunidad de volar una variedad de otros aviones y helicópteros, aviones de época y de línea incluso modernos.

Referencia:

lunes, 20 de agosto de 2012

II

"-Imaginarse como elemento necesario del orden del Universo equivale, para nosotros, gentes de buenas lecturas, a la superstición de los analfabetos. No se cambia el mundo con las ideas. Las personas con pocas ideas están menos afectadas por el error, hacen lo que hacen todos y no molestan a nadie, y sobresalen, se enriquecen, alcanzan buenas posiciones: diputados, condecorados, académicos, periodistas. ¿Puede uno ser necio cuando cuida tan bien sus intereses? El necio soy yo, que he querido batirme contra los molinos del viento-"

[Umberto Eco, "El cementerio de Praga"]

viernes, 17 de agosto de 2012

¿Puede el futuro afectar el pasado?


Lo que se hace hoy en día podría afectar lo que pasó ayer es la conclusión bizarra de un experimento mental de física cuántica descrito en un artículo de pre-impresión realizado por Yakir Aharonov de la Universidad de Tel-Aviv en Israel y sus colegas.
Créditos: conorwithonen.

Suena imposible, de hecho se está violando uno de los principios más preciados de la ciencia -la causalidad-, pero los investigadores dicen que las reglas del mundo cuántico conspiran para preservar la causalidad "escondiendo" su influencia en las elecciones futuras hasta que esas decisiones han sido efectivamente realizadas.

El corazón de la idea es el fenómeno cuántico de "no localidad", en la que dos o más partículas existen en estados interrelacionados o "enredados" que permanecen sin determinar hasta que se realiza una medición sobre una de ellas. Una vez que la medición se lleva a cabo, el estado de la otra partícula instantáneamente se fija, no importando lo lejos que esté. Albert Einstein fue el primero en señalar esta instantánea "acción a distancia" en 1935, cuando argumentó que esto significaba que la teoría cuántica debería estar incompleta. Experimentos modernos han confirmado que esta acción instantánea es, de hecho, real, y ahora es clave para prácticas de tecnologías cuánticas tales como la computación cuántica y criptografía.

Aharonov y sus colaboradores describieron un experimento para un gran grupo de partículas entrelazadas. Afirman que, en determinadas condiciones, la elección del experimentador de una medición de los estados de las partículas puede ser demostrado que afecta a los estados de las partículas que estaban en en un momento anterior, cuando se realizo una medición débil. En efecto, una medición "débil" anticipa la elección realizada en medición "fuerte".

4D en lugar de 3D


El trabajo se basa en una forma de pensar sobre el entrelazamiento llamado "formalismo de vector de dos estados" (TSVF), que fue propuesto por Aharonov hace tres décadas. TSVF considera las correlaciones entre partículas en el espacio-tiempo 4D en lugar de un espacio 3D. "En tres dimensiones se aprecia una influencia milagrosa entre dos partículas distantes", explica Avshalom Elitzur colega de Aharonov del Instituto Weizmann de Ciencia en Rehovot, Israel. "En el espacio-tiempo como un todo, se trata de una interacción continua que se extiende entre los acontecimientos pasados ​​y futuros."

Aharonov y su equipo han descubierto ahora una implicación notable de TSVF que está relacionada con la cuestión de cuál es el estado de una partícula entre dos mediciones -una versión cuántica del acertijo famoso de Einstein de cómo podemos estar seguros de la Luna está allí sin mirarla-. ¿Cómo obtener datos de las partículas sin medirlos? TSVF muestra que es posible obtener información intermedia -haciendo suficientemente mediciones "débiles" en un montón de partículas entrelazadas preparadas de la misma manera y con cálculo de un promedio estadístico.

Mediciones suaves


La teoría de la medición débil -propuesta y desarrollada por Aharonov y su grupo en 1988- explica que es posible realizar mediciones "suaves" o "débiles" de un sistema cuántico y ganar algo de información acerca de una característica (por ejemplo, posición) sin perturbar apreciablemente la propiedad complementaria (impulso) y por lo tanto la evolución futura del sistema. Aunque la cantidad de información obtenida para cada medición es pequeña, un promedio de varias mediciones da una estimación precisa de la medición de la propiedad sin distorsionar su valor final.

Cada medición débil puede proporcionar información acerca de las probabilidades de los diferentes estados (valor de spin arriba o abajo, por ejemplo) -aunque con una gran cantidad de errores- sin llegar a colapsar las partículas en estados definidos, como sucedería con una medida fuerte. "Una medida débil cambia el estado medido y ofrece información sobre el estado localizado resultante", explica Elitzur. "Pero sí se realizan las dos mediciones de manera muy informal, y el cambio que inflige en el sistema es más débil que la información que ofrece."

Como resultado, Elitzur explica, "cada medición individual débil por sí misma casi no dice nada. Las mediciones proporcionan resultados fiables sólo después de resumirlas. Entonces, los errores se anulan y se puede extraer alguna información sobre el grupo en su conjunto."

En el experimento, los resultados de estas mediciones débiles están de acuerdo con la mediciones fuertes más tarde realizadas, en la que el experimentador elige libremente que spin medir -a pesar de que los estados de las partículas son todavía indeterminadas después de las mediciones débiles-. Lo que esto significa, explica Elitzur, es que dentro de TSVF "una partícula entre dos mediciones posee los dos estados indicados, pasado y el futuro".

La naturaleza es exigente


El problema es que, sólo mediante la adición de información posterior de las medidas fuertes se puede revelar lo que las mediciones débiles eran "reales". La información ya estaba allí -pero encriptada y sólo se expone en retrospectiva. Así que la causalidad se conserva, aunque no exactamente como normalmente lo conocemos. ¿Por qué existe esta censura no es clara, excepto desde un punto de vista casi metafísico. "La naturaleza es conocida por ser quisquillosa nunca aparece inconsistente", considera Elitzur. "Así que no se va a apreciar la causalidad hacia atrás abierta -personas matando a sus abuelos y así sucesivamente".

Elitzur agrega que algunos especialistas en óptica cuántica han expresado su interés en llevar a cabo el experimento en el laboratorio, lo que él piensa no debe ser más difícil que en los estudios anteriores de entrelazamiento.

Charles Bennett del Centro de Investigación TJ Watson de IBM en Yorktown Heights, Nueva York, especialista en la teoría cuántica de información, no está convencido. Él ve TSVF como una sola manera de ver los resultados, y cree que los resultados pueden ser interpretados sin ningún aparente "relación de causalidad hacia atrás", por lo que los autores están erigiendo un hombre de paja. "Para hacer que su hombre de paja parezca más fuerte, usan un lenguaje que oscurece la diferencia crucial entre la comunicación y la correlación", reitera. Y añade que es como un experimento en criptografía cuántica en la que el emisor envía al receptor la clave de descifrado antes de enviar (o incluso decide sobre) el mensaje, y luego dice que la clave es de alguna manera una "anticipación" del mensaje.

Sin embargo, Aharonov y sus colegas sospechan que sus hallazgos podrían incluso tener implicaciones para el libre albedrío. "Nuestro grupo sigue estando bastante divididos sobre estas cuestiones filosóficas", explica Elitzur. En opinión de Aharonov, "es algo talmúdico: todo lo que vamos a hacer ya es conocido por un Dios, pero usted todavía tiene la capacidad de elección."

El borrador del trabajo está disponible en arXiv.

Referencia:

lunes, 13 de agosto de 2012

Una compleja historia registrada en "The Rocks don´t lie (Las rocas que no mienten)".

Mientras Johnson ayudaba a una cabina de divulgación científica para una feria de condado local recientemente, se dio cuenta que estaba comenzando a hacer lo que temía evitar. Un grupo de creacionistas, que también contaba con un stand completo mostraba un cartel en el que se describa la coexistencia de humanos y dinosaurios -misioneros que habían desembarcado en las costas-.

A partir de lo anterior comenzó a considerar las siguientes ideas expuestas por los creacionistas: las primeras asociaciones de fósiles no se diferenciaban de los organismos modernos, no había mucho espacio en el Arca de Noé, porque todas las especies presentes hoy en día son descendientes de unos 8,000 "tipos" que se crearon inicialmente, la datación radiométrica de los materiales ha sido demostrada que no funciona; las rocas no pueden plegarse (una flexión bajo presión) -sólo lo puede el sedimento blando; el Gran Cañón, lejos ser una prueba de la profundidad insondable del tiempo geológico, es en realidad una prueba definitiva para el diluvio de Noé... y se puede continuar. La evidencia sugería que el material mostrado no era realmente un conjunto de evidencias que respaldaban una u otra posición. Tales personas nunca habían ido a estudiar un afloramiento de roca. No estaban interesados ​​en lo que la roca tenía que decir -suponían que ya sabían que respuesta tenía que ser-.

Es fácil ver el conflicto entre la religión y la ciencia de la historia de la Tierra como un solo arco de la historia en que la ciencia eventualmente superó el dogma fundamentalista. Pero, como sucede a menudo con historias basadas en la narrativa, la verdad es un poca desordenada y mucho más interesante de lo que se podía suponer.

David R. Montgomery, un geomorfólogo de la Universidad de Washington, traza la interacción histórica entre la geología y la teología en su nuevo libro, "The Rocks don´t lie (Las rocas no mienten)". Como él mismo explica en el prólogo del libro, "empecé a escribir este libro con la intención de presentar una simple refutación del creacionismo, la creencia de que el mundo es de hace unos pocos miles de años y que toda la topografía del mundo abarcando cada montaña, colina y el valle fue formado en el diluvio bíblico. Pero, como he leído en viejos libros aprendí historias sobre enormes inundaciones desde diversos puntos de vista científicos y religiosos".

Muchas culturas tienen leyendas del diluvio y con frecuencia hay razón para creer que la historia se basa en un verdadero diluvio, pero simplemente no hubo uno que inundó el planeta entero. Después de ver la evidencia de lo que fue una vez un lago glacial en el Tíbet y escuchar una leyenda local sobre un gurú que narraba como el budismo en la región llevo al derrotar a un demonio lago, escribe: "Veamos, las historias del diluvio de Noé y la inundación tibetana tienen similitudes, excepto, por supuesto, que fue viral y todavía estamos discutiendo sobre ello".

Las edades de las piedras

El hecho de que los fósiles marinos sean abundantes en las rocas en tierra fue un hecho que no escapo a los griegos. Aristóteles imaginó que los continentes y los mares lentamente alternaban sus identidades, a través de los sedimentos de los ríos que rellenaban cuencas oceánicas. Pero cuando los europeos finalmente devolvieron su atención a la geología, vieron las cosas desde una perspectiva diferente. El reconocimiento de que algunas rocas se componen de arena o barro y que algunas incluso contenían restos de organismos, sólo podía ser interpretado de una manera -como restos del diluvio de Noé-.

Cuando los filósofos naturales estudiaron las rocas lo suficientemente cerca para complicar esa postura, vieron que las rocas contenían nuevos detalles del diluvio de Noé que faltaban en el relato bíblico. Incluso Nicolas Steno, cuyo trabajo pionero en la década de 1600 permitió a la geología a superar su infancia, pasó la mayor parte de su estudio en modelos creativos de lo que podríamos llamar "la mecánica de las inundaciones", en un intento de dar cabida a todas sus observaciones.

En un golpe impactante contra la historia simplificada de la religión frente a la geología, Montgomery describió los principales puntos de vista de los primeros líderes de la iglesia cristiana. Figuras importantes en la historia cristiana -como Orígenes, Clemente, Agustín, Jerónimo y Tomás de Aquino- consideradas como lecturas literales de Génesis proporcionaron una visión de esta postura. Ante la evidencia de la naturaleza que contradice una cierta lectura de la Biblia, todos ellos decidieron que la única respuesta sensata era ajustar la lectura de la Biblia. En su opinión, la naturaleza demostraba claramente cómo eran las cosas, así que cualquier discrepancia mentía con la interpretación de la Escritura. En realidad, no fue sino hasta la Reforma protestante en el año 1500 que se llegó a un prominente literalismo.

Montgomery describe también las funciones de varias figuras importantes en la geología, entre ellos Georges Cuvier , James Hutton y Charles Lyell , denotando cómo sus ideas fueron influenciadas por (o en conflicto con) las vistas existentes sobre el diluvio de Noé. Por ejemplo, tiempo después, se acordó que las rocas representan un registro de la historia que sólo podía ser abarcada en millones de años, pero antes de que el transporte de sedimentos en capas de hielo fuera imaginable -la mayoría de geólogos explicaba que los depósitos glaciares de Europa eran restos reales de la diluvio bíblico-.

Es en ese contexto cuando surge la extraordinaria historia de William Buckland, un prominente teólogo y geólogo de Oxford. Buckland fue un defensor acérrimo del diluvio global para explicar el sedimento de Europa y su topografía, llegando a ser Decano de Westminster en la Iglesia Anglicana en parte por su trabajo sobre este tema. De admiración fue, que más tarde y en público cambió de opinión cuando se enfrento a una clara evidencia de que una inundación no tenía nada que ver con tales pruebas - como la falta de depósitos similares en los trópicos-.

El dogma ataca de nuevo


El libro detalla la resurrección moderna de la oposición fundamentalista a las conclusiones de la geología y la paleontología. A principios de 1900, un hombre llamado George McCready Price intentó volver al dogma que el lento progreso de la geología había erosionado. Montgomery escribe: "Ya sea por ignorancia o simple desdeño de siglos de descubrimiento y debate, Price atribuyó el registro geológico completo a el Diluvio de Noé descartando enormes montones de sedimento repleto de fósiles... Price acusó a los geólogos convencionales de un prejuicio crudo puesto que nunca se molestaron en aprender otra geología e ignoraban la evidencia acumulada por generaciones de geólogos."

En la década de 1950, el trabajo de Price inspiro a Henry Morris (quien más tarde fundó el Instituto para la Investigación de la Creación) y Whitcomb John quien desarrolló ideas y materiales que definen el Creacionismo hasta el día de hoy, así como enormes avances científicos (como la datación radiométrica de la Tierra y la tectónica de placas) fueron descartados por ambos.

En una interesante coda, Montgomery se refiere a la reticencia de la comunidad geológica de reconocer la importancia de Scablands en Washington. En la década de 1920, un joven geólogo de nombre J. Harlen Bretz se convenció de que las pruebas en los cañones grandes y secos del este de Washington eran evidencia de una inundación catastrófica. Después de haber pasado el último siglo prescindiendo de la inundación de Noé como un arquitecto geológico, la mayoría de los geólogos sabían una cosa acerca de la afirmación de Bretz: no podía ser así.

Sería cincuenta años después que el resto del campo admitiría que Bretz tenía razón. ("Todos mis enemigos han muerto", solía decir en broma: "No tengo a nadie para regodearme.") Está claro que los Scablands fueron creados por increíbles inundaciones desatadas por el deshielo de un lago glacial que una vez cubrió 3,000 kilómetros cuadrados de Montana. Muchos científicos simplemente no podían considerar esta posibilidad, ya que la que la geología se conformaba por eventos con cambio gradual, no catastróficos.

Decisivo aquí, tentativo allá


Aunque el libro es mucho más que la imposible maldad de pensar en un diluvio global como una explicación plausible de la complejidad de la corteza terrestre, todavía hay un quien lo considera viable (Por ejemplo, las rocas evaporíticas del oeste de Texas son tan gruesas que tendría que evaporarse un océano de 725 kilómetros profundidad para lograrlo. A la velocidad máxima observada en la Tierra, esto tomaría por lo menos 100,000 años.) Es evidente partir de la claridad de la escritura directa de Montgomery debido a que es un educador. Él efectivamente detalla las principales ideas sin esconderse en un bosque denso de jerga o narración auto-indulgente.

Sólo hay una faceta del libro que viene un poco deslucido. Montgomery relata brevemente sobre el problema filosófico entre ciencia y religión, al parecer para llegar a los creyentes que son sospechosos de la ciencia (pero también para recordar a los científicos que no son inmunes al pensamiento sesgado). Se trata de construir puentes, acercándose a la idea de Stephen Jay Gould de magisterios que no se superponen , pero siempre matizando que la religión debe, por supuesto, dar a los hechos de la ciencia.

El resultado es una rama de olivo se detiene y casi parece se argumentar con ella misma. Al tratar de criticar a ambos lados por igual para crear un punto medio cómodo para que la mayoría de las personas se identifica con esta, Montgomery termina con una noción muy vaga . Aún así, no se puede esperar producir oro, donde miles han intentado sin éxito antes tal merito.

En general, es un gran libro que se puede leer por varias razones -si quieres saber por qué la geología no es compatible con la historia del diluvio, entender las raíces del creacionismo moderno, contemplar una advertencia de los paradigmas científicos, o simplemente aprender sobre la historia de Ciencias de la Tierra-. La manera respetuosa en la que está escrito significa que incluso podría ganar adeptos entre los creacionistas que están dispuestos a evaluar críticamente sus puntos de vista. Después de todo, los padres de la iglesia cristiana hubiera estado de acuerdo.

Referencia:

viernes, 10 de agosto de 2012

La impresión a color alcanza su máxima resolución

Imágenes compuestas de pixeles con una nanoestructura metálicas podría tener un fin en seguridad o almacenamiento de datos ópticos.
Ampliación de una impresión con un tamaño de 50x50 micrometros, posee la mayor resolución posible. Créditos: A*STAR
Las imágenes con la resolución más alta posible -cerca de 100,000 puntos por pulgada- se han logrado, a todo color, con un método de impresión que utiliza pequeños pilares de unas pocas decenas de nanómetros de alto. El método, descrito en Nature Nanotechnology, se podría utilizar para imprimir marcas de agua pequeñas o mensajes secretos por razones de seguridad y lograr un almacenamiento de datos en discos de alta densidad.

Cada píxel de estas imágenes posee una resolución ultra -compuesto de cuatro puestos a nanoescala con un límite máximo de un nanodisco de plata y oro-. Mediante la variación de los diámetros de las estructuras (que son decenas de nanómetros) y los espacios entre ellos, es posible controlar qué color de la luz se requiere reflejar. Los investigadores de la Agencia para la Ciencia, la Tecnología y la Investigación (A*STAR), en Singapur usaron este efecto, llamado color estructural, para llegar a una completa paleta de colores. Como una prueba de principio, imprimieron una versión de prueba de 50×50 micrómetros empleando la imagen 'Lena', un retrato rico en color de una mujer que se utiliza comúnmente como un estándar de impresión.

Joel Yang, un científico de materiales en A*STAR, quien dirigió el estudio, notó por primera vez el efecto cuando observo las nanopartículas de metal bajo un microscopio de luz. "Vimos que podíamos controlar los colores, del rojo al azul, al modificar el tamaño de las partículas", agrega. Dependiendo de su tamaño, una nanoestructura de metal resuena con una determinada longitud de onda de la luz -al igual que una cuerda de guitarra resuena a una frecuencia particular, dependiendo de su longitud. La luz en la longitud de onda hace que los electrones en la superficie de la nanoestructura metálica resuenen y esto determina el color que la estructura refleja. Este efecto, llamado resonancia de plasmones, es bien conocido por los físicos. Yang es el primero en emplear este efecto para poder imprimir fotografías de alta resolución y más aún imágenes a todo color, explica Jay Guo, ingeniero de la Universidad de Michigan en Ann Arbor, que no estuvo involucrado con el trabajo.

Tinta indeleble


Para la demostración inicial de la imagen de Lena, los investigadores usaron por primera vez un haz de electrones en una litografía con un patrón de oblea de silicio el cual contenía una serie de mensajes elaborados a partir de un material aislante. Luego se depositaron nanodiscos de metal en los postes y la superficie de la oblea fue recubierta con el metal. El revestimiento de metal sobre la oblea refleja la luz de color en los pilares, haciendo que la imagen sea brillante. "Los colores aparecen después de que se aplica el metal", reitera Yang.

La imagen de Yang tiene una estructura con una resolución de alrededor de 100,000 puntos por pulgada. En comparación, las impresoras de inyección de tinta y láser producen manchas de tinta con micrómetros de tamaño y su resolución alcanza un máximo de alrededor de 10,000 puntos por pulgada. Si las imágenes de Yang se hicieron en áreas lo suficientemente grandes como para verse a simple vista, "serían superiores a la alta definición", añade Teri Odom, químico de la Universidad Northwestern en Evanston, Illinois. Pero, señala, las personas con visión perfecta no puede discernir objetos de menos de 20-30 micrómetros.

Incluso en el mejor microscopio, las imágenes ópticas tienen un límite de resolución definitiva y este método le llega. Cuando dos objetos están demasiado cerca, la luz que se refleja en ellos se difracta, y los dos objetos confunden. Este efecto, llamado el límite de difracción, se produce cuando la distancia entre dos objetos es igual a la mitad de la longitud de onda de la luz utilizada para crear la imagen. La longitud de onda en el medio del espectro de color es de aproximadamente 500 nanómetros. Eso significa que los píxeles de una imagen impresa no se pueden colocar más cerca de 250 nanómetros sin que parezca manchada. Las imágenes de Yang están apenas por encima de esta distancia.

Además de la resolución, otra ventaja emplear esta estructura es la estabilidad de la imagen. Los materiales metálicos y aislantes utilizados para hacer estas imágenes son duraderos. "No se desvanecen con el tiempo, a diferencia de los tintes y colorantes orgánicos", explica Guo.

Yang dice que está trabajando ahora en un método de estampado para imprimir los pilares más fácilmente en áreas más extensas y en diferentes materiales. El método de tallado con haz de electrones utilizado para la demostración inicial es demasiado lento para usar en grandes áreas.

Los investigadores han solicitado una patente para el método de impresión y esperan se pueda emplear en la comercialización de micro imágenes tales como marcas de agua a escala nanométrica, o para la criptografía. El método para la impresión de manchas de color muy juntas también podría ser utilizado para codificar datos en discos ópticos ultradensos similares a películas. Debido a que estas imágenes no se pueden escribir, sería más útiles para el almacenamiento de información en archivos.

Referencia:

lunes, 6 de agosto de 2012

Marte necesita vehículos (y Curiosity es uno de los grandes)

Luego del aterrizaje de Curiosity, revisemos un poco la historia de la exploración de Marte.
Panorama del cráter Greeley por el rover Opportunity. Créditos: NASA.

¿Dónde más se puede encontrar otro mundo como la Tierra? Venus es similar en tamaño y masa a nuestro planeta, pero su elevada temperatura en la superficie y su lluvia de ácido sulfúrico limita las comparaciones; otros mundos interesantes carecen de la atmósfera o son demasiado fríos. Pero Marte tiene un gran potencial. A pesar de poseer una atmósfera delgada con dióxido de carbono y baja gravedad en la superficie (una persona que pese 68 kilogramos en la Tierra, sólo pesaría 25 kilogramos libras en Marte), el planeta es lo suficientemente parecido a la Tierra para ofrecer una promesa de habitabilidad, ya sea para el futuro de la humanidad, o en su pasado o presente con formas de vida nativas.

Por lo tanto, no es de extrañar que Marte sea un objetivo de exploración desde el comienzo de los vuelos espaciales. Las primeras misiones enviadas a Marte por la Unión Soviética iniciaron en 1960, a escasos tres años después del Sputnik. El primer sobrevuelo con éxito sucedió en 1965 por el Mariner 4 de la NASA y el primer aterrizaje con éxito fue la soviética Mars 3 en 1971. Que los exploradores dejarán de transmitir poco después del contecto fue algo común durante varios años al respecto una entrada en la Wikipedia con la cronología de la exploración de Marte es una lectura aleccionadora.

Comparando los diversos fracasos frente a los aterrizajes exitosos hace que se vean aún más sorprendentea. Con el Mars Science Laboratory (MSL), conocido como Curiosity, que llego a Marte el 06 de agosto, se puede hacer una retrospectiva sobre la exploración marciana.

Un vikingo llega a Marte

Nave Viking. Créditos: NASA.

Viking 1 de la NASA aterrizó en Marte el 20 de julio de 1976, mientras que su gemela Viking 2 llegó unos meses más tarde el 3 de septiembre. Ambos módulos de aterrizaje son similares, consistían en un marco de aluminio resistente con tres patas para sostenerse por encima de la superficie marciana.

El promedio de la presión atmosférica de Marte es tan sólo el 0.6 por ciento de la Tierra, es decir, la fricción atmosférica no siempre es fiable para frenar la entrada. Los ingenieros tienen que ser creativos al colocar sondas en el planeta. Los módulos de aterrizaje Viking (pesaban cada uno kilogramos 571 en la Tierra) fueron equipados con paracaídas y cohetes que apuntaban hacia abajo para frenar su descenso. Para complicar las cosas, el equipo de los Viking (que incluía al científico Carl Sagan) quería evitar la contaminación química de Marte. Finalmente, se utilizo el empuje con cohetes retro a través de 18 boquillas, empleando un tubo de escape.

La misión científica de Viking era ambiciosa: buscaba un estudio de la composición química, geológica, meteorológica y (con suerte) de las propiedades biológicas de Marte. Para este fin, cada módulo de aterrizaje estaba equipado con un brazo robótico de excavación, dos cámaras panorámicas cilíndricas, una estación meteorológica completa y un espectrómetro de masas para identificar los componentes químicos de la atmósfera y el suelo. Viking fue un experimento extraordinariamente bien diseñado, uno de los triunfos de la exploración robótica.

A pesar de las concepciones de autores de ciencia ficción sobre el desarrollo de una civilización que prospero en Marte, los científicos aún debaten si los sensores biológicos en Viking eran capaces de encontrar vida microbiana o no.

La Viking 1 dejó de operar seis años después de su descenso, después de un error de uno de los controladores en la Tierra que cerro una antena de comunicaciones. La batería del Viking 2 fracasó después de tres años de operaciones. Desde entonces, la nave ha recibido una visita ficticia por parte de un niño pequeño y su tigre, y las sondas Viking fueron identificados desde la órbita por la cámara de HiRise del Mars Reconnaissance Orbiter.

El primer vehículo

El rover Sojourner se encuentra aún en Marte. La imagen fue tomada por Carl Sagan Memorial Station, una herramienta de la misión Mars Pathfinder. NASA/JPL.
Quince años pasaron entre el final del programa Viking y el siguiente aterrizaje con éxito: la misión Mars Pathfinder, que incluyó un módulo de aterrizaje fijo que desplegó el primer vehículo robótico autonomo. Nombrado Sojourner en honor al líder de derechos civiles Sojourner Truth , este rover fue una misión de prueba de concepto que ayudó al diseño posterior del Spitit, Opportunity y Curiosity.

Pathfinder utilizo el mismo método de aterrizaje que emplearon Spirit y Opportunity. En lugar de tocar el suelo con cohetes, el módulo de aterrizaje uso bolsas de aire inflables. Después de la entrada y con un descenso en paracaídas -se desaceleró, usando bolsas de aire para amortiguar el impacto- y la nave rebotó en realidad contra la superficie antes de descender. Los cojines luego se desinflaron para permitir que el vehículo pudiera salir.

Pathfinder se recuperó de una parada de 4 de julio de 1997 en Ares Vallis, una llanura pedregosa en el hemisferio norte de Marte. La ubicación fue seleccionada por ser bastante plana y debido a la gran cantidad de rocas ayudaron a la navegación de Sojourner.

Sojourner era mucho más pequeña que las otras sondas, tenía solo 10,5 kg de masa. Este pequeño tamaño le permitió escalar rocas con facilidad, gracias a un bajo centro de gravedad y sus seis ruedas articuladas de forma independiente. De hecho, considerando uno de los líderes del proyecto, Dan Britt, de la Universidad de Florida, Sojourner era demasiado bueno para escalar rocas, ya que tenía la mala costumbre de quedarse atascado. El vehículo también resultó tener miedo de su propia sombra. Desde que comenzó a funcionar de forma autónoma en el terreno rocoso, Sojourner tenía un algoritmo de evasión de obstáculos que se activaba cuando la sombra del robot aparecía en su camino.

Las rocas de la región de aterrizaje fueron nombrados empleando personajes de dibujos animados (Scooby Doo, Ren, Stimpy, entre otros), ya que los nombres necesarios tenían que ser memorables, -no peyorativos- y no basarse en personas reales. Pathfinder también hizo algunos descubrimientos importantes sobre el clima de Marte, incluyendo las nubes que se forman al atardecer y la frecuencia relativa de las tolvaneras de la superficie. Sojourner experimento cerca de dos remolinos de polvo todos los días, que mostraba lo volátil que el clima marciano puede ser.

Sojourner soporto cerca de tres meses, más allá del final programado para un mes de su misión. Esta experiencia presagió el éxito de Spirit y Opportunity.

El octavo año para una misión programada de 90 días

El proyecto científico de Bruce Banerdt considero una prueba para saber si el rover podía liberarse de suelo blando. Esta foto muestra el tamaño real del vehículo, en comparación con un ser humano. Créditos: NASA/JPL-Caltech

Las sondas Viking fueron un gran éxito, pero no permitieron responder a una de las grandes preguntas: ¿Marte tiene agua? Varias imágenes desde la órbita son muy sugestivas para señalar antiguos mares y ríos, pero eso sólo hizo que aumentará el misterio. Si Marte tuvo agua superficial en el pasado, ¿a dónde se fue? ¿Esta a un metro bajo tierra? La vida en la Tierra requiere agua líquida, descubrir agua en Marte sería significativo. Con este fin, el Mars Exploration Rovers Spirit y Opportunity -se construyeron para estudiar la geología de Marte-, estudian si hay y cómo se formó el agua.

Para dar cabida a esta misión científica, los vehículos se hicieron mucho más grandes que el Sojourner, cada uno con una masa de 185 kilogramos. Sin embargo, comparten los mismos seis ruedas articuladas que el diseño anterior y fueron alimentadas con paneles solares. El ambiente polvoriento en Marte en realidad ayudó a mantener la arena alejada de los paneles mediante el viento, manteniéndolos limpios y en condiciones de trabajo, permitiendo a los vehículos seguir adelante más aún de su misión programas para 90 días sol. (Un día "sol" es un día marciano, cuya duración es de 24 horas y 39 minutos de largo, por las normas de la Tierra).

Spirit aterrizó en Marte el 4 de enero de 2004, seguido por el Opportunity el 25 de enero. Ambos vehículos están equipados con cámaras panorámicas, una herramienta de abrasión (RAT) para la molienda de trozos de rocas y una suite de herramientas de análisis químicos, incluyendo rayos X además de equipos de imágenes microscópicas. En otras palabras, los vehículos son excelentes laboratorios móviles y han sido capaces de explorar distintas regiones geológicas en la superficie de Marte.

Ambos rovers encontraron abundante evidencia sugerente de un Marte con agua en el pasado. Por nombrar sólo dos, la rueda de Spirit descubrió un pedazo de tierra que se parece a las aguas termales en la Tierra y el Opportunity descubrió una serie de piedras esféricas conocidas coloquialmente como "arándanos", que podría haberse formado en un ambiente húmedo. Ambos vehículos también descubrieron rocas con características que no se encuentran en ningún lugar de la Tierra.
Los "arándanos" en Marte, descubiertos por el rover Opportunity: son cuerpos esféricos que pudieron haberse formado en condiciones acuosas. Créditos.

La misión de Spirit duró cinco años más que la duración estimada para la misión original, antes de quedar atrapado y perder poco a poco sus funcionalidades, Opportunity sigue funcionando en su octavo año.

Agua, agua (tal vez) haya en todas partes


Los vehículos marca una nueva etapa en la exploración marciana, pero aún el Viking Lander todavía tiene un gran mérito. Por esa razón, la sonda Phoenix fue construido como un laboratorio estacionario como los Vikings, pero usando energía solar y una estricta misión para determinar la composición química de la superficie de Marte. Phoenix (nombre debido a que "surgió de las cenizas" de un proyecto anterior) utiliza cohetes para descender en la superficie de Marte el 25 de mayo de 2008. Fue la primera sonda en aterrizar con éxito en la región del Polo Norte, un poco al sur de la capa de hielo.

Phoenix estaba equipado con un laboratorio de química sofisticada y un brazo robótico, con una pala en la punta. La sonda cavo varias trincheras y encontró hielo de agua. La acción de los retro-cohetes en el aterrizaje despejó el suelo marciano suelto, dejando al descubierto hielo. El análisis del material recogido por la pala no encontró signos reveladores de vida o actividad biológica, pero aún no se descartan por completo las posibilidades.

Phoenix cumplió con su misión científica y debido a los graves daños debido al hielo en uno de sus paneles solares se apago por completo el 25 de mayo de 2010. El último tweet enviado desde la cuenta @PhoenixMars al término de su misión científica anunciaba "triunfo" en sistema binario, con un corazón en ASCII.

Marte, hasta que no se duerma

El Mars rover Curiosity en el laboratorio durante el montaje en el JPL. Tenga en cuenta lo mucho mayor curiosidad es que el Espíritu, que se muestra en la imagen anterior. Créditos: NASA/JPL-Caltech.

El Mars Science Laboratory (MSL) es el nombre oficial del nuevo rover, conocido como Curiosity. Cuya llegada fue el día de hoy.

Los equipos científicos y de ingeniería no pudieron descansar hasta estar seguros que el rover se encontraba en la superficie del planeta. Dado que diversas sondas han fracasado en el pasado, la preocupación por la seguridad de la misión se justifica para no usar el método de airbag de aterrizaje. En su lugar, se usará cohetes de ayuda conocidos como el Sky Crane para bajarlo una parte de su descenso. La NASA ha descrito esta forma de aterrizar como "siete minutos de terror", que es aproximadamente el tiempo que el rover tomará para hacer su descenso final a la superficie marciana.



Curiosity es un laboratorio aún más grande que Spirit y Opportunity, con una gama completa de equipos detectores de radiación, junto con un aparato de química diseñado para buscar moléculas orgánicas asociadas con la vida en la Tierra. Si hay vida en Marte o no, con un mejor equipo revelara algo nuevo como ya lo han hecho Sojourner, Viking, Spirit y Opportunity antes.

Referencia:

miércoles, 1 de agosto de 2012

¿Fin del mundo? No en este año

Estela Maya. Créditos: Wikimedia Commons.
Los mayas a igual que otras culturas de la antigüedad como griegos, romanos, babilonios o chinos, desarrollaron sólidos conocimientos en diversas áreas de la ciencia que abarcaron desde astronomía, matemáticas hasta . Prueba de ello fue la precisión con la que calcularon los ciclos del Sol, Venus o la Luna mediante cautelosas observaciones que sirvió para deducir la noción del tiempo. A partir de la comparación de los diferentes ciclos los mayas pudieron crear calendarios para medir largos periodos de tiempo.

Limitaciones del calendario


Los mayas poseían tres calendarios: sagrado o tzolzin, civil o haab y la cuenta larga. Dentro de estos el calendario civil o haab contemplaba que el año solar duraba 365 días omitiendo el detalle que en la actualidad sabemos, en realidad un año solar dura 365 días y seis horas. Este pequeño detalle hace que con el paso del tiempo exista un desfase entre el calendario y la posición del cielo haciendo que se vuelva ineficaz para predecir las estaciones del año, su principal utilidad en las antiguas sociedad basadas en la agricultura.

El calendario maya mide el tiempo en ciclos determinados por el movimiento del Sol,  donde los ciclos varían en su duración, tan sólo uno de estos ciclos, el de Cuenta Larga, dura cinco mil años. A su vez nuestro calendario gregoriano y el maya, no tienen un punto de partida en común haciendo complicado convertir una fecha gregoriana en maya o viceversa. Es así que en la actualidad aún no existe un consenso entre los especialistas para poder relacionar ambos calendarios. 

Tomando como referencia esto último hay quienes afirman que el último ciclo del Calendario de Cuenta Larga terminó hace más de doscientos cincuenta años, un grupo reitera que concluye en 2012 pero aún considerando el 2012 como fin de ciclo, existen discusiones sobre el día en que finaliza, hay quienes consideran termina el 21 de diciembre pero otros explican el 23 de diciembre como fecha valida. Dicho de otra forma existen 50 formas de vincular ambos calendarios.

Profecías, mitos y New Age


Uno de los mayores errores acerca de la cultura maya es la interpretación de sus documentos históricos. Las únicas profecías mayas se encuentran en los "Libros de Chilam Balam". Los libros de Chilam Balam fueron escritos durante el siglo XVI y XVII siendo un importante documento para conocer la cultura maya precolombina. Sin embargo, es importante considerar que en las profecías mayas contenidas en Chilam Balam se percibe la influencia española, sobre todo en el aspecto religioso y esta manipulación sirve para ajustarse a hechos ya ocurridos.

A su vez, el movimiento New Age durante la última parte del Siglo XX y el inicio del Siglo XXI vino a popularizar la idea de un misticismo alrededor de las culturas precolombinas, promoviendo una imagen de perfección de tales civilizaciones que concluye con afirmaciones de un fin del mundo predicho por la cultura maya.

En definitiva a pesar de que haya toda una publicidad alrededor de una inminente destrucción del mundo y de todo lo que conocemos, 2012 es un fecha carente de significado en la cultura maya y aunque así lo fuera para esta civilización no elaboraron profecías en torno a un año en específico.

Peor aún en caso de que existiera una profecía de tal naturaleza, el conocimiento que poseemos acerca del Universo nos permite cuestionar además de refutar con sólidos argumentos tales predicciones. Tales profecías promovida por el New Age tales como explosiones de supernovas, fenómenos solares inesperados o la trayectoria de colisión de un planeta hasta ahora desconocido son fácilmente desmontables con el conocimiento en astronomía actual.

Related Posts Plugin for WordPress, Blogger...