lunes, 31 de octubre de 2011

La crisis que afectó a la física hace 100 años


Sentados (izquierda a derecha): Walther Nernst, Marcel Brillouin, Ernest Solvay, Hendrik Lorentz, Emil Warburg, Jean Baptiste Perrin, Viena Wilhelm, Marie Curie y Henri Poincaré. De pie (izquierda a derecha): Robert Goldschmidt, Max Planck, Heinrich Rubens, Sommerfeld Arnold, Frederick Lindemann, Maurice de Broglie, Knudsen Martin, Friedrich Hasenöhrl, Hostelet Georges, Herzen Edouard, James Hopwood Jeans, Ernest Rutherford, Heike Kamerlingh Onnes, Albert Einstein y Paul Langevin.

Créditos: Couprie / Hulton Archive / Getty Images
Hace cien años, las principales mentes científicas de Europa se reunieron para hacer frente a un peligroso estado. Durante los últimos 20 años, los científicos habían descubierto curiosos fenómenos - incluyendo rayos X, el efecto fotoeléctrico, la radiación nuclear y los electrones - que sacudieron los mismos cimientos de la física.

Mientras que los investigadores en el siglo XIX había pensado se habían descrito todos los procesos físicos conocidos, usando las ecuaciones de Isaac Newton y James Clerk Maxwell, las observaciones nuevas e inesperadas estaban destruyendo este panorama color de rosa. Los físicos más importantes, tales como Max Planck y Nernst Walther, consideraron que las circunstancias eran graves como para justificar un simposio internacional que podría tratar de resolver la situación.

Fue el comienzo de la revolución cuántica.

Repercusiones de esta reunión todavía se pueden percibir hasta hoy en día. Aunque la física aún puede parecer que esta en crisis, con investigadores que aún no han encontrado el bosón de Higgs y que carecen de una comprensión completa de la materia oscura y energía oscura, lo que sí sabemos acerca de estos misterios sólo es posible gracias a las bases establecidas en el primer Congreso de Solvay.

De octubre 30 a noviembre 3 de 1911, 18 luminarias se reunieron en el marco de la conferencia en Bruselas, Bélgica, conocida hoy en día como el Congreso de Solvay. Financiado y organizado por el rico químico Ernest Solvay, la lista de invitados es una impresionante colección de los mejores científicos de la época.

Junto con Max Planck, a menudo llamado el padre de la mecánica cuántica, acudió Ernest Rutherford, descubridor de los protones y Heike Kamerlingh Onnes, descubridor de la superconductividad, así como la química Marie Curie y el matemático Henri Poincaré. El miembro más joven de este grupo contaba con 32 años de edad, era Albert Einstein.

Fue así como los miembros reunidos pasaron su tiempo discutiendo sobre su campo.

"El congreso en Bruselas parecía los lamentos sobre las ruinas de Jerusalén," Einstein escribió a su amigo, el ingeniero Michele Besso "Nada positivo salió de él."

El "templo" cuya destrucción muchos de los investigadores se lamentaban eran las teorías de la física clásica, que había dominado el pensamiento científico en el siglo anterior. La mecánica clásica había logrado describir el movimiento de los planetas, el comportamiento de la electricidad, el magnetismo y la relación entre sólidos líquidos y gases. Sin embargo, fenómenos recientemente observados estaban apuntando a los problemas. La luz, por ejemplo, había sido descrito hasta ahora como una onda sin embargo, algunos experimentos sugerían que se trataba de un modelo inadecuado.

El mismo Einstein fue un firme defensor de la nueva corriente, el camino de la mecánica cuántica. Sobre la base de una teoría de Planck, abogó por la idea, entonces de los radicales sobre que la luz podía comportarse como tanto una onda como una partícula (cuántica). Mientras que hoy conocemos como una posición certera, las observaciones en ese momento no eran lo suficientemente fuertes como para apoyar de todo corazón a esta conclusión. No sería hasta la década de 1920 que las partículas de luz llamadas fotones serían descubiertas.

Actas del Consejo de Solvay muestran cómo los físicos tenían una visión del mundo diferente. Los miembros consideraban "en que la llamada teoría cuántica es, sin duda, una herramienta útil, pero que no es una teoría en el sentido usual de la palabra, en todo caso no es una teoría que podría desarrollarse en una forma coherente en la actualidad", escribió Einstein.

En ese momento, las teorías que describían los cuantos de luz y de la dualidad partícula-onda no tenía ninguna justificación experimental rigurosa. Muchos de los científicos en la conferencia todavía concebían el concepto, ahora obsoleta de un éter lumínico, que supuestamente era el medio por el cual ondas de luz, al igual que las ondas viajan a través del agua de mar.

Einstein se opuso al conservadurismo de sus compañeros asistentes a conferencias. Planck, escribió, "(Einstein) pegado obstinadamente a algunas ideas preconcebidas, sin duda, esta equivocado", mientras que Poincaré lo describió como "simplemente negativo en general, y, a pesar de toda su agudeza, mostró poca comprensión de la situación".

A pesar de sus objetivos, la reunión de 1911 logro poco. En su conclusión, Ernest Solvay se dirigió a los científicos, diciendo: "A pesar de los resultados alcanzados en este congreso, no se han resuelto los problemas reales que se mantienen a la vanguardia." Haría falta por lo menos dos décadas antes de que la evidencia experimental y científica mostrará a la mecánica cuántica como una teoría verdadera.

Sin embargo, esta primera conferencia llevó a Solvay al establecimiento de una reunión anual de los principales científicos para reunir y discutir los asuntos del día. La famosa Quinta Conferencia Solvay sucedida en 1927, mostró como Einstein discutió combate una vez más con los asistentes, aunque esta vez con Niels Bohr y Werner Heisenberg acerca de cómo la mecánica cuántica había ido demasiado lejos y había reducido el comportamiento de las partículas subatómicas a las probabilidades. ("Dios no juega a los dados con el universo", declaró Einstein supuestamente).

Referencia:

viernes, 28 de octubre de 2011

Con frecuencia escuchará las referencias a un "ecosistema de software" en varias plataformas, pero es relativamente raro ver a alguien tomar ese tipo de terminología en serio. Un grupo de biólogos especialistas en evolución, sin embargo, ha utilizado las herramientas de análisis en ecosistemas para ver la evolución de las distribuciones Debian, examinando aspectos como las dependencias de paquetes y la incompatibilidad de software.

El inicio del estudio se remonta a 1993 reuniendo estadísticas compiladas en cada versión estable, teniendo en cuenta el número de paquetes en cada versión y comparando con la versión anterior. Esto les permitió rastrear la historia de vida de los paquetes, viendo como los nuevos se han introducido y los más viejos caen en desuso. Además de recopilar las estadísticas, el equipo también recogió la versión x86 del sistema operativo e instalo paquetes al azar, que les dio una medida estadística de la frecuencia de las dependencias e incompatibilidades.

Varias tendencias eran evidentes en los datos. Por ejemplo, la modularidad del sistema fue creciendo exponencialmente hasta la versión 3.0, después de lo cual hubo una fuerte caída. A partir de ahí, la modularidad se mantuvo estable, con las sucesivas versiones. Esto tuvo un efecto importante en la funcionalidad, que se define como la velocidad a la que los paquetes elegidos al azar con éxito se instalan en un sistema Debian, valor que empezó a subir de forma significativa con la versión 3.1 una vez publicada. Los autores atribuyen esto a la gran diferencia de tiempo entre los lanzamientos que tuvieron lugar en este momento.

Con el tiempo, los módulos de software (clusters de paquetes con alta interdependencia) también aumentaron en tamaño y número. A medida que estas tendencias se mantuvieron, el número de conflictos entre los módulos de software se redujeron, sin embargo, en un modulo aumento el número de conflictos. "Por lo tanto, existe un trade-off -una situación en la cual por ganar una cualidad se pierde otra- entre la reutilización de muchas piezas de código existente y la aparición de incompatibilidades entre paquetes de software", concluyen los autores.

También demostraron que es posible el modelo de este trade-off con las herramientas estándar ecológico: la dependencias entre los paquetes parecen las interacciones predador-presa, mientras que los conflictos se parecen a las especies que tienen una relación de exclusión competitiva.

En general, la características clave de la modularidad del equipo identificado parece ser que la disminución del número de conflictos a través de módulos significa que más de los programas disponibles para el sistema operativo se puedan instalar, ya que es raro que un conflicto bloquee completamente un módulo completo de la instalación y en funcionamiento. Los autores sugieren que se puede aprender algo acerca de la biología mediante el estudio de software, pero en realidad no se proporcionan ejemplos de cómo esto podría funcionar, en esta etapa, entonces, no es un argumento especialmente convincente.

Referencia:

viernes, 21 de octubre de 2011

Un neutrino no puede ser más veloz que la luz dice la crítica

Detector de neutrinos Super-Kamiokande. Créditos: Kamioka Mining and Smelting Co.
Falta de registro sobre la energía sugiere que la búsqueda se calculó mal.

Un nuevo estudio pone freno a la noción de que los neutrinos son más veloces que la luz.

En septiembre, un grupo en el experimento OPERA de Italia informaba que los neutrinos viajaban a una velocidad de 730 kilómetros en el CERN entre Suiza y el Laboratorio Nacional del Gran Sasso en Italia, cerca de 60 nanosegundos más rápido que la luz en el vacío (SN: 10/22/11, p. 18). Pero si esto fuera cierto, la mayoría de los neutrinos hubieran dejado un rastro de energía, como sugiere un nuevo análisis realizado por físicos de la Universidad de Boston.

OPERA debería haber detectado esta radiación, dicen los físicos, si sus afirmaciones son creíbles. Pero no lo hizo.

"Yo estaría extasiado de ver algún tipo de nueva física proveniente de este experimento", agrega Andrew Cohen, un físico teórico quien junto al ganador del Premio Nobel Sheldon Glashow, realizó el informe que se publicará en la revista Physical Review Letters. "Es difícil dar cabida a esta idea, dada esta [falta de] radiación".

Para dar seguimiento a esta idea, un segundo experimento de neutrinos en el Gran Sasso llamado ÍCARO buscado señales de esta radiación y no ha encontrado, de acuerdo a un grupo de informes en línea publicados el 17 de octubre en arXiv.org.

Un tipo similar de pérdida de energía ha sido estudiado en el agua y otros materiales en los que la luz viaja más lenta de su velocidad en el espacio vacío. Partículas que viajan más rápido que la luz en estas sustancias emiten destellos de energía que se conocen como radiación de Cherenkov. Detectores Cherenkov exploran este efecto para detectar estas partículas, incluidos los creados por los rayos cósmicos.

En el artículo que publican Cohen y Glashow es el primero en extender esta idea de que neutrinos viajan supuestamente más rápido que la luz en el vacío. El modelo estándar de física de partículas establece que tales partículas también tienen que renunciar a la energía, emitiendo pares de electrones y positrones, considera Cohen.

Teorías exóticas que existen permiten que los neutrinos viajen más rápido que la luz para aferrarse a su energía. Pero la falta de esta firma añade soporte a la opinión predominante de que el equipo de Opera ha sido engañado por una cierta incertidumbre no contabilizada en sus mediciones.

"Estamos bastante convencidos de que el experimento está mal", agrega Glashow. "Pero no considero que nadie ha identificado el error, si hay un error, hasta el momento".

Gilles Henri, un astrofísico teórico en el Instituto de Ciencias Planetarias y de Astrofísica de Grenoble, Francia, se pregunta si las fluctuaciones en el haz de neutrinos podrían ser la causa. En un artículo publicado en línea 2 de octubre en arXiv.org, sugiere que algunos neutrinos en la multitud que viajó a Italia pudieron haber comenzado su viaje antes de lo pensado, rompiendo la velocidad media calculada para el grupo.

Los dos relojes atómicos utilizados por el equipo de Opera para medir la velocidad de los neutrinos también se han analizado. Carlo Contaldi, un físico teórico del Imperial College de Londres, sugiere que la teoría general de la relatividad de Einstein podría haber causado que los relojes marcaran un ritmo diferente - gracias a que la gravedad tirar más fuerte en el reloj situado en el inicio del viaje del neutrino en Suiza que en su socio, en las profundidades de Italia-. Para comprobar su idea, Contaldi está esperando que el equipo de OPERA anuncie los detalles de su experimento.

Él no es el único."Hasta que vengan más detalles en cuanto a cómo lo realizaron las mediciones en su experimento", dice Contaldi, "no está claro cómo proceder".

Referencia:

domingo, 16 de octubre de 2011

Blog Action Day 2011: Hablemos de comida, los huertos urbanos

Créditos: Milenio.
Como cada año, en un día se pretende unir esfuerzos y voluntades alrededor del mundo para lograr metas comunes. 2011 no es la excepción y se busca despertar conciencia acerca del tema de la comida a través de la iniciativa Blog Action Day, abordada desde sus múltiples facetas tales como Desarrollo Sustentable, ambiente, gastronomía, tradiciones, entre otras.

Desde esta perspectiva la presente aportación gira en torno al desarrollo de huertos urbanos, una propuesta que cobra importancia dada la creciente crisis alimentaria, que permite al mismo tiempo recuperar espacios urbanos para mejorar la imagen de la sociedad y fomentar una cultura de sustentabilidad en sectores desprotegidos de la Ciudad de México.

BBC relata como bajo el programa "Siembra Iztapalapa, Agricultura Urbana" ha permitido
mejorar la economía local al permitir venta de productos a precios accesibles y al mismo tiempo asegurar la autosuficiencia alimentaria.

Desde 2010 Iztapalapa ha desarrollado planes que han logrado la participación de 200 personas y cerca de 8,000 familias quienes consideran a los huertos urbanos como una alternativa viable.

viernes, 14 de octubre de 2011

Ubuntu 11.10 "Oneiric Ocelot"

Ubuntu 11.10 "Oneiric Ocelot" esta disponible desde hace unos días para su descarga e instalación. Como es habitual también es posible encontrarnos con las actualizaciones de las distribuciones a cargo de Canonical como son: Kubuntu, Xubuntu, Lubuntu, Edubuntu, Mythbuntu y Ubuntu Studio.  A continuación una breve descripción de sus nuevas características:


Novedades en la interfase

Se ha rediseñado el botón Ubuntu agregado en la versión 11-04, el cual junto con el panel izquierdo tiene una nueva apariencia para ofrecer una mejor experiencia al usuario.

Al introducir versiones recientes de Compiz y Unity las mejoras hacen que sufra una modificación el menu de intercambio de ventanas que aparece al oprimir "Alt+Tab". También se ha sustituido "Places" y en su lugar aparece "Lenses", una de estas Lenses es exclusiva para Banshee gestionando así la música que tenemos en nuestro sistema. De forma general hay un mejor rendimiento de los lanzadores y el panel.

Ubuntu Software Center 5.0

Se ha vuelto a rediseñar el Centro de Software de Ubuntu, una renovada interfaz que tiene como propósito ofrecer una experiencia más simple y agradable al navegar, buscar e instalar programas. El árbol de navegación en versiones previas se ha remplazado por un enfoque más limpio en barras de herramientas y navegación entre las vistas. Las mejores aplicaciones se muestran en un lugar destacado de la vista principal, así como en vistas de categoría, usando la amplia base de datos que ha construido la comunidad Ubuntu.

La vista de la lista de aplicaciones pueden ser ordenados por mejor puntuación, nombre y fecha de aparición en el Centro. Mediante un banner dinámico que se ha añadido en la vista principal sirve para mostrar aplicaciones interesantes, este banner se actualiza de forma periódica.
Por último, pero no menos importante, OneConf está ahora integrado para mantener las aplicaciones instaladas sincronizados entre varios equipos. Para activarlo, clic en "Archivo → sincronización entre computadoras".

Arquitecturas ARM

Ubuntu 11.10 introduce dos nuevas imágenes de escritorio para arquitecturas ARM: armel + AC100 para netbook de Toshiba AC100 (NVIDIA Tegra 2 SoC) y armel + mx5. Ambas imágenes son un "mejor esfuerzo" apoyados por la comunidad mediante imágenes dirigidas a desarrolladores y demás usuarios.

Revisado el contenido del DVD

En Ubuntu 11.10 ahora se ha hecho una revisión, más pequeño (en tamaño) de DVD basado en la retroalimentación de la comunidad en los últimos ciclos. Este nuevo DVD tiene un tamaño de 1,5 Gb y es una extensión de nuestra imagen actual del CD que incluye todos los paquetes de idiomas y algunas otras aplicaciones útiles, como Inkscape, GIMP, PiTiVi, y una suite LibreOffice más completa. Todos los paquetes que solían estar en el DVD están todavía disponibles en el archivo.

Nuevo sitio de desarrolladores de la aplicación

Coincidiendo con el lanzamiento de Ubuntu 11.10, se ha logrado un importante hito en el esfuerzo continuo para hacer de Ubuntu una meta para los desarrolladores de aplicaciones logrando: el lanzamiento para la aplicación de Desarrolladores de Ubuntu.

developer.ubuntu.com ahora es el punto central de referencia para cualquier tema relacionado con el desarrollo de aplicaciones de Ubuntu, desde la creación a la publicación: portabilidad, compartir, contribuir, y búsqueda de información. Este sitio debe crecer de forma orgánica para proporcionar las herramientas, compartir conocimientos y actuar como trampolín en  el fomento de la proliferación de aplicaciones y el crecimiento de la comunidad de desarrolladores.


Nuevas herramientas ISO

Ubuntu ofrece ahora un conjunto de herramientas para equipos LoCo para crear imágenes personalizadas para proporcionar una experiencia aún más a la cultura de la región que cubren. Después de establecer las bases de Ubuntu 11.10, en el próximo ciclo nos proponemos trabajar con la comunidad en la ampliación de uso de la comunidad.

Aplicaciones actualizadas

Thunderbird se incluye ahora como el cliente de correo predeterminado. Se incluye en el menú y la integración a través de los lanzadores.

Copias de seguridad son fáciles en Ubuntu 11.10, ahora que Déjà Dup incluye la herramienta de copia de seguridad por defecto. Almacenar de forma segura las copias de sus datos importantes en un disco duro separado, el servidor en  la nube o incluso Ubuntu One.

La nueva Gwibber aterrizó en Ubuntu 11.10, con lo que un mejor rendimiento y una nueva interfaz utilizando las tecnologías más recientes de GNOME.

GNOME 3.2 está incluido y es una importante actualización incluida en Ubuntu 11.04. GNOME clásico ya no se instala por defecto pero se puede activar después de la instalación completa con la instalación de gnome-panel. Tenga en cuenta que los menús de indicadores aún no han sido portados a la nueva gnome-panel y la disposición predeterminada del panel arriba se usa en lugar de las pesadas ​​personalizaciones Ubuntu. GNOME Shell también está disponible para su instalación.

Ubuntu ahora utiliza el gestor de login LightDM con la interfaz Unity.

Sináptica y PiTiVi ya no se incluyen en la instalación por defecto, pero aún están disponibles en los repositorios de Ubuntu.

Descarga

Se puede descargar Ubuntu mediante las siguientes opciones:
También existen las siguientes posibilidades:

viernes, 7 de octubre de 2011

Créditos: Nobel Foundation.
El israelita Daniel Shechtman (Technion – Israel Institute of Technology, Haifa, Israel) ha recibido el Premio Nobel de Química 2011 por el descubrimiento experimental de los cuasicristales.

Un mosaico de los átomos

En los cuasicristales, nos encontramos con mosaicos fascinantes del mundo árabe que se reproducen en el nivel de los átomos: los patrones regulares que nunca se repiten. Sin embargo, la configuración encontrada en cuasicristales se consideraba imposible y Dan Shechtman tuvo que librar una dura batalla contra la ciencia establecida. El Premio Nobel de Química 2011 ha alterado fundamentalmente la forma de concebir la materia sólida para los químicos .

En la mañana del 8 de abril de 1982, una imagen en contra de las leyes de la naturaleza apareció en microscopio electrónico de Dan Shechtman. En toda la materia sólida, los átomos se cree llenan el interior de los cristales en los patrones de simetría que se repite periódicamente una y otra vez. Para los científicos, esta repetición se requiere para obtener un cristal.

Sin embargo la imagen de Shechtman mostró átomos que en su cristal llenaban un patrón que no se podía repetir. Este patrón se considera tan imposible como la creación de una pelota de fútbol con sólo polígonos de seis puntas, cuando una esfera por necesidad requiere de ambos polígonos de cinco y seis esquinas. Su descubrimiento fue muy controvertido. En el curso de la defensa de sus hallazgos, se le pidió dejara a su grupo de investigación. Sin embargo, su batalla forzó a los científicos a reconsiderar la concepción de la naturaleza misma de la materia.

Mosaicos en el Palacio de Alhambra

Mosaicos aperiódicos, como las que se encuentran en los mosaicos medievales islámicos del palacio de la Alhambra en España y en el santuario Darb-i Imam  en Irán, han ayudado a los científicos a comprender lo que los cuasicristales parecen a nivel atómico. En los mosaicos, como en los cuasicristales, los patrones son regulares - siguen las reglas matemáticas - pero nunca se repiten.

Cuando los científicos describen cuasicristales Shechtman, utilizan un concepto que proviene de las matemáticas y el arte: la proporción áurea. Este número había alcanzado ya el interés de los matemáticos de la Grecia antigua, ya que a menudo aparece en la geometría. En los cuasicristales, por ejemplo, la proporción de diferentes distancias entre los átomos se relaciona con la regla de oro.

Tras el descubrimiento Shechtman, los científicos han producido otros tipos de cuasicristales en el laboratorio y descubrieron que ocurren naturalmente en los cuasicristales de diferentes muestras de minerales de un río ruso. Una compañía sueca también ha encontrado cuasicristales en una cierta forma de acero, donde los cristales refuerzan el material como una armadura. Actualmente los científicos están experimentando con el uso cuasicristales en diferentes productos, tales como sartenes y los motores diesel.

Referencia:

martes, 4 de octubre de 2011

El Universo es cada vez mayor. La expansión del Universo comenzó con el Big Bang hace 14 mil millones de años, pero se redujo durante los primeros millones de años. Con el tiempo se empezó a acelerar. La aceleración se cree que es impulsado por la energía oscura, que en el inicio constituyo sólo una pequeña parte del universo. Pero a medida que la materia se diluye por la expansión, la energía oscura es más dominante. Créditos: Nobel Foundation.

Escrito en las estrellas
"Algunos dicen que el mundo terminará en fuego;
Algunos dicen que en hielo ... "

¿Cuál es el destino del Universo? Probablemente va a terminar en el hielo, si hemos de suponer. Los Premios Nobel de este año han estudiado cuidadosamente varias docenas de estrellas que explotaronn, llamadas supernovas, galaxias lejanas han concluido que la expansión del Universo se está acelerando.


El descubrimiento fue una sorpresa incluso para los ganadores del Premio Nobel sí mismos. Lo que se vio como lanzar una pelota en el aire y en lugar de tener que volver a bajar, viendo como desaparece más y más rápidamente en el cielo, como si la gravedad no lograba revertir la trayectoria del balón.

Algo similar parecía estar ocurriendo a través de todo el Universo.

La tasa de crecimiento de la expansión implica que el Universo está siendo impulsado por una forma desconocida de energía incorporada en el tejido del espacio. Esta energía oscura constituye una gran parte del Universo, más de 70%, es un enigma, quizás el más grande en la física de hoy. No es de extrañar, entonces, que la cosmología fue sacudida en sus cimientos, cuando dos grupos de investigación presentaron resultados similares en 1998.

Saul Perlmutter dirigió uno de los dos equipos de investigación, el Supernova Cosmology Project, que se inició una década a principios de 1988. Brian Schmidt se dirigió a otro equipo de científicos, que a finales de 1994 puso en marcha un proyecto de la competencia, el equipo de High-Z Supernova Search, en la que Adam Riess jugo un papel crucial.

Los dos equipos de investigación elaboraron un mapa del universo mediante la búsqueda de las supernovas más lejanas, estrellas y explosiones en el espacio. Al establecer la distancia de las supernovas y la velocidad a la que se están moviendo lejos de nosotros, los científicos mantenían la esperanza de revelar nuestro destino cósmico. Esperaban encontrar indicios de que la expansión de la
el universo se estaba ralentizando, lo que llevaría a un equilibrio entre el fuego y el hielo. Lo que encontraron fue todo lo contrario - la expansión se estaba acelerando.

Cosmos es cada vez mayor

No es la primera vez que un descubrimiento astronómico ha revolucionado nuestras ideas sobre el Universo. Sólo hace cien años, el universo era considerado como un lugar tranquilo y pacífico, no más grande que nuestra galaxia, la Vía Láctea. El reloj cosmológico seguía corriendo de forma fiable y constante y el universo era eterno. Pronto, sin embargo, un cambio radical iba a cambiar esta imagen.

A principios del siglo 20 el astrónomo estadounidense Henrietta Swan Leavitt encontró una forma de
medir las distancias a las estrellas lejanas. En ese momento, a  las mujeres se les negaba el acceso a los grandes telescopios, por lo que fueron frecuentemente utilizadas para la engorrosa tarea de analizar las placas fotográficas.

Henrietta Leavitt estudió miles de estrellas pulsantes, llamadas Cefeidas, y encontró que las más brillantes tenia pulsos más largos. Con esta información, Leavitt pudo calcular el brillo intrínseco de las Cefeidas.

Si la distancia de una de las estrellas Cefeidas es conocida, las distancias a otras Cefeidas puede ser
establecidas - el regulador de la luz, cuanto más lejos la estrella. Una vela estándar fiable nació, por primera vez marcando en la vara cósmica que todavía se utiliza hoy en día.

Al hacer uso de las Cefeidas, los astrónomos pronto llegaron a la conclusión de que la Vía Láctea es sólo una de muchas galaxias en el Universo. Y en la década de 1920, los astrónomos pudieron acceder al entonces más grande telescopio del mundo en Mount Wilson en California, por lo que
fueron capaces de demostrar que casi todas las galaxias se se alejan de nosotros. Estaban estudiando el corrimiento al rojo de la llama que se produce cuando una fuente de luz se aleja de nosotros.

Longitud de onda de la luz se estira y cuanto más tiempo se expanda, más rojo es su color. La
conclusión fue que las galaxias están alejándose de nosotros y cuanto más lejos estén, más rápido se mueven - esto se conoce como ley de Hubble.

El universo está creciendo. El ir y venir de la constante cosmológica

Lo que se observó en el espacio ya había sido sugerida por cálculos teóricos. En 1915, Albert Einstein publicó su Teoría de la Relatividad General, que ha sido la base de nuestra comprensión de la Universo desde entonces. La teoría describe un universo que se tiene que reducir o expandir.
Esta inquietante conclusión se llegó a alrededor de una década antes del descubrimiento de la expansión de las galaxias.

Incluso Einstein no podía conciliar el hecho de que el Universo no era estático. Así que para poner fin a esta no deseada expansión cósmica, Einstein añadió una constante a sus ecuaciones que llamó la constante cosmológica. Más tarde, Einstein consideró la inserción de la constante cosmológica como un gran error. Sin embargo, con las observaciones hechas en el período 1997-1998 con las que se conceden este año el Premio Nobel, podemos concluir que la cosmológica constante de Einstein -colocada por las razones equivocadas- en realidad era brillante.

El descubrimiento del universo en expansión era una iniciativa pionera y el primer paso hacia el punto de vista, ahora estándar de que el Universo fue creado en el Big Bang hace casi 14 millones de años, cuando el tiempo y el espacio comenzó entonces.

Desde entonces, el Universo se ha expandido, como pasas en un pastel de pasas hinchándose en el horno, las galaxias se alejan una del otro debido a la expansión cosmológica. Pero, ¿a dónde vamos?

Las supernovas - la nueva medida del Universo

Cuando Einstein se deshizo de la constante cosmológica y se rindió a la idea de un universo no estático, se relaciono a la forma geométrica del universo a su suerte. ¿Es abierta o cerrada, o es algo en medio -un Universo plano-?

Un universo abierto es aquel en el que la fuerza gravitacional de la materia no es lo suficientemente grande como para evitar la expansión del Universo. Toda la materia se diluye en un espacio cada vez más grande, más frío y más vacío. En un lugar cerrado Universo, por otra parte, la fuerza gravitacional es lo suficientemente fuerte como para detener e incluso revertir la expansión. Así el Universo con el tiempo dejaría de expandirse y estaría de nuevo junto en un final caliente y violenta, en un gran Crunch. La mayoría de los cosmólogos, sin embargo, prefiere vivir en el más simple y elegante además de matemático Universo: uno plano, donde se cree que la expansión declina. El universo no  terminaría ni en el fuego ni en el hielo. Pero no hay otra opción. Si hay una constante cosmológica, la expansión continuará acelerándose, incluso si el universo es plano.

Este año, los Premios Nobel esperan medir la desaceleración cósmica, o de cómo la expansión de la Universo se está desacelerando. Su método fue, en principio, la misma que la utilizada por los astrónomos más de seis décadas atrás: localizar las estrellas lejanas y medir cómo se mueven. Sin embargo, es más fácil decirlo que hacerlo.

Desde los días de Henrietta Leavitt muchas Cefeidas se han encontrado otras que están aún más alejadas. Sin embargo, las distancias que los astrónomos necesitan ver, miles de millones de años luz de distancia, donde las Cefeidas ya no son visibles. El criterio cósmico necesario para ser extendido.

Las supernovas - explosiones estelares - se convirtió en el nuevo estándar de las velas. Telescopios más sofisticados en la Tierra y en el espacio, así como de ordenadores más potentes, abrieon la posibilidad en la década de 1990 para añadir más piezas al rompecabezas cosmológico. Cruciales fueron los sensores digitales de imagen sensible a la luz - cargada de acoplamiento de los dispositivos o CCD - la invención por Willard Boyle y George Smith, quienes recibieron el Premio Nobel de Física en 2009.

Las explosión de enanas blancas

La nueva herramienta en la caja de los astrónomos es un tipo especial de explosión de la estrella, la supernova de tipo Ia. Durante un par de semanas, una supernova de este tipo solo puede emitir tanta luz como una galaxia entera. Este tipo de supernova es la explosión de una antigua estrella muy compacta tan pesado como el Sol pero tan pequeña como la Tierra - una blanca enana-. La explosión es el último paso del ciclo de vida de la enana blanca.

Las enanas blancas se forman cuando una estrella tiene una energía no en su esencia, como todo el hidrógeno y el helio se han quemado en las reacciones nucleares. Sólo de carbono y oxígeno siguen siendo. De la misma manera, a lo lejos en el futuro, cuando nuestro Sol se desvanezca y se enfríe, llegará a su fin como una enana blanca.

Un final mucho más emocionante es la espera de una enana blanca que forma parte de un sistema estelar binario, que es bastante común.

En este caso, la fuerte gravedad de la enana blanca roba la estrella compañera de su gas. Sin embargo, cuando una enana blanca ha crecido a 1,4 masas solares, ya no se las arregla para mantenerse unida. Cuando esto sucede, el interior de la enana se vuelve lo suficientemente caliente que las reacciones de fusión fuera de control empiezan y la estrella se destroza en cuestión de segundos.

Los productos de la fusión nuclear emite una radiación fuerte que aumenta rápidamente durante las primeras semanas después de la explosión, sólo para disminuir en los meses siguientes. Así que no hay prisa para encontrar supernovas -las violentas explosiones son breves-. A través del universo visible, una decena de supernovas de tipo Ia se producen cada minuto. Sin embargo, el Universo es enorme. En una galaxia típica sólo una o dos explosiones de supernova se producen dentro de mil años. En Septiembre de 2011, tuvimos la suerte de observar una supernova en una galaxia cercana a la Osa Mayor, visible sólo a través de un par de binoculares regular. Pero la mayoría de las supernovas están mucho más lejos y por lo tanto más tenue. Así que de ¿Dónde y cuándo se mira en el dosel del cielo?

Una conclusión sorprendente

Los dos equipos que compiten sabía que tenía que peinar el cielo de supernovas lejanas. El truco consistía en comparar dos imágenes de la misma pieza pequeña del cielo, que corresponde a una miniatura con el brazo extendido.

La primera imagen tiene que ser tomada inmediatamente después de la luna nueva y la segunda tres semanas después, antes de los pantanos de la luna a luz de las estrellas. A continuación, las dos imágenes se pueden comparar con la esperanza de descubrir un pequeño punto de luz - un pixel
entre otros, en la imagen CCD - que podría ser un signo de una supernova en una galaxia muy lejana.

Sólo las supernovas de más de un tercio del camino a través del universo visible se utilizan, con el fin de eliminar las distorsiones locales.

Los investigadores trataron con muchos otros problemas. Las supernovas Tipo Ia no son tan confiables como inicialmente parecían - los más brillantes explosiones se desvanecen más lentamente. Por otra parte, la luz de las supernovas es necesario que se extraiga de la luz de fondo de sus galaxias anfitrionas. Otra tarea importante consiste en obtener el brillo adecuado. El polvo intergaláctico entre nosotros y las estrellas afecta la visión. Esto afecta a los resultados
al calcular el máximo brillo de las supernovas.

Perseguir supernovas es un reto no sólo de los límites de la ciencia y la tecnología, sino también de la logística. En primer lugar, el tipo de supernova se tenía que encontrar. En segundo lugar, su desplazamiento hacia el rojo y el brillo se va a medir.

La curva de luz tenía que ser analizada a través del tiempo con el fin de poder compararlo con otras supernovas al mismo tipo de distancias conocidas. Esto requiere una red de científicos que puedan decidir con rapidez si una estrella en particular es un digno candidato para la observación. Tenían que ser capaz de cambiar entre los telescopios y tienen tiempo de observación en un telescopio concedió sin demora, un procedimiento que generalmente toma meses.

Tenían que actuar rápido porque se desvanece rápidamente supernova. A veces, las dos equipos compiten discretamente cuando se cruzan los caminos.

Los peligros potenciales habían sido numerosos, y los científicos realmente se tranquilizan con el hecho de que se había llegado a los sorprendentes resultados: en definitiva, se encontraron algunas supernovas distantes, cuya luz 50 parecía más débil de lo esperado. Esto era contrario a lo que había imaginado. Si la expansión cósmica ha ido perdiendo velocidad, las supernovas debían ser más brillantes. Sin embargo, las supernovas se fueron desvaneciendo a medida que se llevaron a
más rápido y lejos más rápido, incrustados en las galaxias. La sorprendente conclusión es que la expansión de la Universo no se está desacelerando - muy al contrario, se está acelerando.

De aquí a la eternidad

Entonces, ¿qué es lo que está acelerando el Universo? Se llama energía oscura y es un reto para la física, un enigma que nadie ha podido resolver todavía. Varias ideas han sido propuestas. La más sencilla es volver a introducir la constante cosmológica de Einstein, una vez rechazada. En ese momento, él insertó la constante cosmológica como una fuerza anti-gravedad para contrarrestar la fuerza gravitatoria de la materia y así crear un universo estático.

Hoy en día, la constante cosmológica parece la que hace que la expansión del universo se acelere.
La constante cosmológica es, por supuesto, constante, y como tal no cambia con el tiempo. Energía  oscura se convierte en dominante cuando la materia, y por lo tanto su gravedad, se diluye debido a la expansión del Universo. Según los científicos, explicar por qué la constante cosmológica entró
la escena tan tarde en la historia del Universo, sólo cinco o seis millones de años más tarde. Por ese tiempo, la la fuerza gravitacional de la materia se había debilitado lo suficiente en relación con la constante cosmológica. Hasta entonces, la expansión del Universo se había frenado.

La constante cosmológica podría tener su origen en el vacío, espacio vacío que, de acuerdo con la física cuántica, no es nunca completamente vacío. En su lugar, el vacío es una sopa de burbujas cuánticas virtual compuesta de partículas de materia y antimateria que dan lugar a la energía. Sin embargo, la más simple de estimación de la cantidad de la energía oscura no se corresponde en absoluto a la cantidad que se ha medido en el espacio, que es aproximadamente 10.120 veces más grande (1 seguido de 120 ceros).

Es posible que la energía oscura no sea constante, después de todo. Tal vez cambie en el tiempo. Tal vez un campo de fuerza desconocida sólo de vez en cuando genere la energía oscura. En la física hay muchos campos de fuerza que en conjunto van por la quintaesencia de su nombre, después de que el nombre griego para el quinto elemento. La quinta esencia podría acelerar el Universo, pero
sólo a veces. Eso haría imposible prever el destino del Universo.

Cualquiera que sea la energía oscura, que parece haber llegado para quedarse. Se ajusta
muy bien en el rompecabezas que los físicos y astrónomos han estado trabajando durante mucho tiempo. De acuerdo al concenso, alrededor de tres cuartas partes de la Universo consisten en energía oscura. El resto es materia. Sin embargo, la materia ordinaria, la materia de las galaxias, las estrellas, los seres humanos y las flores están hechas, sólo por el cinco por ciento del Universo. La materia restante se llama materia oscura y se oculta hasta el momento de nosotros.

La materia oscura es otro misterio en la gran cosmos desconocido. Al igual que la energía oscura, la materia oscura es invisible. Así que sabemos de ambas sólo por sus efectos - está empujando una, la
otra es tirar. Ellos sólo tienen el adjetivo "oscuro" en comunes.

Por lo tanto los resultados de los Premios Nobel 2011 en física han ayudado a dar a conocer un universo que es el 95% desconoce para la ciencia. Y todo es posible de nuevo.

Referencia:

lunes, 3 de octubre de 2011

El sistema inmune
La infección del cuerpo humano por microorganismos patógenos, como bacterias, virus, parásitos u hongos provoca la
la respuesta inmune. Se presenta en un proceso de dos etapas: la inmunidad innata se detiene la infección y la inmunidad adaptativa porteriormente la identifica. Créditos: Nobel Foundation.

1. La inmunidad innata. Componentes de los microorganismos se unen a receptores Toll situados en muchas células en el cuerpo, este activa la inmunidad innata, que conduce a la inflamación y la destrucción de los microorganismos invasores. La inmunidad adaptativa. Las células dendríticas activan los linfocitos T, que inician la inmunidad adaptativa. Una cascada de reacciones inmunitarias, que continua con la formación de anticuerpos y las células asesinas. Créditos: Nobel Foundation.


La búsqueda a los guardianes de la respuesta inmune por el cual el hombre y otros animales se defienden contra el ataque de bacterias y otros microorganismos es reconocido este año. Bruce Beutler y Jules Hoffmann descubrieron que las proteínas del receptor pueden reconocer estos microorganismos y activar la inmunidad innata, el primer paso en la respuesta inmune del cuerpo. Ralph Steinman descubrió las células dendríticas del sistema inmune y su capacidad única para activar y regular la inmunidad adaptativa, son la última etapa de la respuesta inmune durante el cual los microorganismos son eliminados del cuerpo.

Los descubrimientos de los tres premios Nobel han revelado cómo las fases innata y adaptativa de la respuesta inmune son activadas y por lo tanto proporcionan nuevos conocimientos sobre mecanismos de la enfermedad. Su trabajo ha abierto nuevas vías para el desarrollo de la prevención y tratamiento contra las infecciones, cáncer y enfermedades inflamatorias.

Dos líneas de defensa en el sistema inmunológico

Vivimos en un mundo hasta cierto punto peligroso. Microorganismos patógenos (como bacterias, virus, hongos y parásitos) nos amenazan continuamente, pero estamos equipados con mecanismos de defensa poderosa. La primera línea de defensa, la inmunidad innata, puede destruir los microorganismos invasores y desencadenan la inflamación que contribuye al bloqueo de su ataque. Si los microorganismos descomponen esta línea de defensa, la inmunidad adaptativa es llamada a la acción. Con sus células T y B, que producen los anticuerpos y los anticuerpos destruyen las células infectadas. Después de combatir con éxito la infección, nuestro sistema inmune adaptativo mantiene una memoria inmunológica que permite una movilización más rápida y poderosa de las fuerzas de defensa la próxima vez que ocurra un ataque del mismo microorganismo. Estas dos líneas de defensa del sistema inmunológico no sólo proporcionan una buena protección contra las infecciones, sino que también representan un riesgo. Si el umbral de activación es demasiado bajo o si las moléculas endógenas pueden activar el sistema, la enfermedad inflamatoria puede seguir.

Los componentes del sistema inmunológico han sido identificados, paso a paso durante el siglo 20. Gracias a una serie de descubrimientos que merecieron el Premio Nobel, sabemos, por ejemplo, cómo los anticuerpos se construyen y cómo las células T reconocen sustancias extrañas. Sin embargo, hasta que el trabajo de Beutler, Hoffmann y Steinman, los mecanismos de activación de la inmunidad innata y la mediación de la comunicación entre la inmunidad innata y adaptativa dejaron de ser enigmáticas.

El descubrimiento de los sensores de la inmunidad innata

Jules Hoffman hizo su descubrimiento pionero en 1996, cuando él y sus colaboradores investigaron cómo las moscas de la fruta combatían las infecciones. Tenían acceso a las moscas con mutaciones en varios genes diferentes, incluyendo Toll, un gen que antes se consideraban implicado en el desarrollo embrionario por Christiane Nüsslein-Volhard (Premio Nobel 1995). Cuando Hoffmann infectó a su mosca de la fruta con bacterias u hongos, descubrió que los mutantes de Toll murieron porque no pudieron organizar una defensa eficaz. También fue capaz de llegar a la conclusión de que el producto del gen Toll estuvo involucrado en la detección de microorganismos patógenos y la activación que se necesitaba para la defensa exitosa contra ellos.

Bruce Beutler estaba buscando a un receptor que podría obligar a los productos bacterianos, lipopolisacáridos (LPS), que pueden causar un shock séptico, una condición potencialmente mortal que involucra a la sobreestimulación del sistema inmunológico. En 1998, Beutler y sus colegas descubrieron que los ratones resistentes a la LPS tenían una mutación en un gen que es muy similar al del gen Toll de la mosca de la fruta. Este receptor tipo Toll (TLR) resultó ser el elusivo receptor de LPS. Cuando se une LPS, se activan las señales que causan la inflamación y, cuando las dosis de LPS son fuertes, sucede el shock séptico. Estos resultados demuestran que los mamíferos y moscas de la fruta utilizaban moléculas similares para activar la inmunidad innata cuando se enfrentan a los microorganismos patógenos. Los sensores de la inmunidad innata habían sido finalmente descubiertos.

Los descubrimientos de Hoffmann y Beutler provocarnon una explosión de investigaciones en la inmunidad innata. Alrededor de una docena de diferentes TLRs han sido identificados en humanos y ratones. Cada uno de ellos reconoce ciertos tipos de moléculas comunes en los microorganismos. Los individuos con ciertas mutaciones en estos receptores tienen un riesgo mayor de contraer infecciones, mientras que otras variantes genéticas de TLR se asocian con un mayor riesgo para las enfermedades inflamatorias crónicas.

Un nuevo tipo de células que controla la inmunidad adaptativa

Ralph Steinman descubrió, en 1973, un nuevo tipo de células que llamó la células dendríticas. Especulo que podrían ser importante en el sistema inmunológico y probó si las células dendríticas podrían activar las células T, un tipo de célula que tiene un papel clave en la inmunidad adaptativa y desarrollaba una memoria inmunológica frente a muchas sustancias diferentes. En experimentos con cultivos celulares, mostró que la presencia de las células dendríticas daban como resultado respuestas vívidas de las células T a dichas sustancias. Estos resultados fueron recibidos con escepticismo, pero trabajos posteriores de Steinman demostraron que las células dendríticas tienen una capacidad única de activar las células T.

Posteriores estudios de Steinman y otros científicos llegaron a abordar la cuestión de cómo el sistema inmune adaptativo decide si debe o no ser activado cuando se enfrentan a diversas sustancias. Las señales que surgen de la respuesta inmune innata y detectadas por las células dendríticas, mostraban el control de la activación de células T. Esto hace posible que el sistema inmunológico reaccione a los microorganismos patógenos y evite un ataque a la propia moléculas endógenas del organismo.

Desde la investigación fundamental al uso médico

Los descubrimientos por los que se les otorga el Premio Nobel de 2011 ha proporcionado nuevos conocimientos sobre la activación y regulación de nuestro sistema inmunológico. Ellos han hecho posible el desarrollo de nuevos métodos para la prevención y tratamiento de la enfermedad, por ejemplo, con la mejora de vacunas contra las infecciones y en un intento por estimular el sistema inmunológico para atacar los tumores. Estos descubrimientos también nos ayudan a entender por qué el sistema inmunológico puede atacar a nuestros propios tejidos, proporcionando así pistas para el tratamiento de la novela de las enfermedades inflamatorias.

Sobre los ganadores

Bruce A. Beutler nació en 1957 en Chicago, EE.UU. Recibió su doctorado de la Universidad de Chicago en 1981 y trabajó como científico en la Universidad Rockefeller en Nueva York y la Universidad de Texas en Dallas, donde descubrió el receptor de LPS. Desde el año 2000 ha sido profesor de genética e inmunología en el Instituto de Investigación Scripps, La Jolla, EE.UU..

Julio A. Hoffmann nació en Echternach, Luxemburgo en 1941. Estudió en la Universidad de Estrasburgo en Francia, donde obtuvo su doctorado en 1969. Después de un entrenamiento postdoctoral en la Universidad de Marburg, Alemania, regresó a Estrasburgo, donde dirigió un laboratorio de investigación desde 1974 hasta 2009. También se ha desempeñado como director del Instituto de Biología Celular y Molecular de Estrasburgo, y durante el período 2007-2008 como presidente de la Academia Nacional Francesa de las Ciencias.

Ralph M. Steinman nació en 1943 en Montreal, Canadá, donde estudió biología y química en la Universidad McGill. Después de estudiar medicina en la Harvard Medical School en Boston, MA, EE.UU., recibió su doctorado en 1968. Él ha estado afiliada a la Universidad Rockefeller en Nueva York desde 1970, ha sido profesor de inmunología en esta institución desde 1988, y es también director del Centro de Inmunología y enfermedades inmunes. Falleció el pasado 30 de septiembre debido a cáncer de páncreas.

Referencia:

Related Posts Plugin for WordPress, Blogger...