viernes, 30 de septiembre de 2011

El coherente gato de Schrödinger que aún confunde


La famosa paradoja del gato de Schrödinger inicia con los principios de la física cuántica y termina con la conclusión un extraño gato que puede estar simultáneamente en dos estados físicos - uno en el que el gato está vivo y el otro en el que está muerto-. En la vida real, sin embargo, los objetos grandes, como los gatos está claro que no existen en una superposición de dos o más estados y esta paradoja normalmente se resuelve en términos de la decoherencia cuántica. Pero ahora los físicos en Canadá y Suiza argumentan que incluso si la decoherencia se podría evitar, la dificultad de hacer medidas perfectas nos impide confirmar la superposición de los gatos.

Erwin Schrödinger, uno de los padres de la teoría cuántica, formuló su paradoja en 1935 para destacar el aparente absurdo del principio cuántico de superposición -de que un objeto cuántico no observado esta al mismo tiempo en varios estados-. Se prevé una caja de color negro que contiene un núcleo radiactivo, un contador Geiger, un frasco de gas venenoso y un gato. El contador Geiger se prepara para liberar el gas tóxico, causando la muerte del gato, en caso de detectar cualquier radiación de una desintegración nuclear. El juego macabro se juega según las reglas de la mecánica cuántica ya que la desintegración nuclear es un proceso cuántico.

Si el aparato se deja por un período de tiempo y se observa, es posible que el núcleo se ha deteriorado o que no haya decaído, y por lo tanto que el veneno haya o no haya sido puesto en libertad y que el gato este o no muerto. Sin embargo, la mecánica cuántica nos dice que, antes de que la observación se ha hecho, el sistema está en una superposición de dos estados - el núcleo se ha deteriorado y no se desintegro, el veneno esta liberado y no liberado, y el gato esta a la vez vivo y muerto.

Mezcla de micro y macro

El gato de Schrödinger es un ejemplo del "micro-macro enredo", en el que la mecánica cuántica permite que (en principio) un objeto microscópico, como un núcleo atómico y un objeto macroscópico como un gato tengan una relación mucho más estrecha de lo permitido por la física clásica. Sin embargo, es evidente para cualquier observador que los objetos microscópicos obedecen a la física cuántica, mientras que las cosas macroscópicas obedecen las reglas de la física clásica que experimentamos en nuestra vida cotidiana. Pero si los dos están entrelazados es imposible que cada uno pueda ser regulado por leyes físicas.

La manera más común para evitar este problema es apelar a la decoherencia cuántica, en el que múltiples interacciones entre un objeto y su entorno destruyen la coherencia de la superposición y el entrelazamiento. El resultado es que el objeto parece obedecer a la física clásica, a pesar de que en realidad sigue las reglas de la mecánica cuántica. Es imposible para un sistema grande como un gato permanecer completamente aislado de su entorno y por lo tanto no se percibe como un objeto cuántico.

Aunque no se discute esta explicación, Christoph Simon y colegas de la Universidad de Calgary y la Universidad de Ginebra, se han preguntado qué pasaría si la decoherencia no afectó al gato. En un experimento respaldado por simulaciones por ordenador, los físicos consideran pares de fotones (A y B) generados a partir de la misma fuente con polarizaciones iguales y opuestas, viajando en direcciones opuestas. Para cada par, un fotón se envía directamente a un detector, pero el fotón B se duplica muchas veces por un amplificador para que un haz de luz macroscópico simule ser el gato. La polarización de los fotones de este rayo de luz se mide a continuación.

Hay dos tipos de amplificador

Se consideran dos tipos diferentes de amplificador. La primera mide el estado del fotón B, que tiene el efecto de destruir el enredo con A, antes de producir más fotones con la polarización que mide  el fotón B. Esto es como el proceso puramente clásico de observar el contador Geiger para ver si se ha detectado algún tipo de radiación y luego usar la información para decidir si debe o no matar al gato. Las segundo amplificador copia el fotón B sin medir su estado, conservando así el enredo con A.

Los investigadores se preguntan cómo varía la polarización de los fotones en el haz de luz y si esta será diferente en función del amplificador que se utiliza. Encontraron, si la resolución perfecta se puede lograr, los resultados son muy diferentes. Sin embargo, con técnicas experimentales disponibles en la actualidad, las diferencias no pueden ser vistas. "Si usted tiene un sistema grande y quiere ver las características cuánticas como el enredo en que, usted tiene que asegurarse de que su precisión es muy buena", explica Simon. "Tienes que ser capaz de distinguir un millón de fotones de un millón de fotones más uno, y no hay tecnología actual que le permitirá hacer eso."

Quantum-teórico de la información Renato Renner, de ETH Zurich está impresionado: "Incluso si no hubiese decoherencia, este artículo explicaría por qué no vemos efectos cuánticos y por qué el mundo nos parece clásico, lo que es una cuestión fundamental, desde luego" Pero, advierte, "el documento se plantean una pregunta fundamental y nos da una respuesta en un caso particular interesante, pero si es en general aún está por verse".

Referencia:

viernes, 23 de septiembre de 2011

Cómo una hipótesis científica colapso y condujo a un arresto

Créditos: Aurich Lawson
En 2006, los científicos anunciaron un hallazgo provocador: un retrovirus llamado XMRV, estrechamente relacionado con un virus conocido de los ratones, asociado con los casos de cáncer de próstata. Sin embargo, otros laboratorios, con diferentes grupos de pacientes, no encontró evidencia de una infección viral. Antes de que la controversia pudiera ser resuelta, otro grupo de investigación publicó un documento en 2009 que contenía afirmación aún más intrigante. XMRV, explicaba, se asociaba con el síndrome de fatiga crónica (SFC), un trastorno que algunos habían afirmado es puramente psicosomático.

La reacción no tardó en llegar. La comunidad de CFS, viendo una causa viral como una validación de su enfermedad, se sumó al hallazgo. Uno de los autores del documento XMRV/SFC, Judy Mikovits, consiguió un puesto como director de investigación de una fundación privada dedicada a la CFS. Una empresa asociada a la fundación comenzó a ofrecer pruebas para las infecciones.

Entonces la historia dio un giro extraño. Una larga cadena de eventos no sólo condujo a la caída de la hipótesis de XMRV, sino que también llevó a Mikovits a la cárcel y trajo amenazas de muerte a algunos de los investigadores que desacreditaron sus ideas.

La ciencia se cae a pedazos

Como los informes de los resultados XMRV aparecidos en la literatura científica, el gobierno federal se alarmó. Se organizó un equipo especial encargado de tratar de averiguar si el XMRV representaba una amenaza real para el suministro de sangre de la nación. Al mismo tiempo, una serie de laboratorios ya estaban trabajando con pacientes diagnosticados con SFC y rápidamente utilizaron sus muestras existentes para detectar el virus. La caza había comenzado.

Los primeros resultados no fueron prometedores. Los retrovirus, como demostrados hábilmente por el VIH, pueden ser muy difícil de detectar. El sistema inmunológico no es eficiente para generar anticuerpos contra ellas y las infecciones a menudo persisten en niveles extremadamente bajos, por lo que otras formas de detección presentan dificultades técnicas. Así que no fue una gran sorpresa que algunos laboratorios informaran rápidamente que tenían problemas para encontrar XMRV en otros pacientes con SFC, del mismo modo que había problemas para encontrarlos en los pacientes con cáncer de próstata.

El incumplimiento reiterado para detectar el virus con el tiempo llevó a algunos investigadores a considerar explicaciones alternativas para los resultados originales. La obra resultante, que se resumen aquí, puso fin a la mayoría preocupada por el virus. Dos estudios mostraron que las muestras que dieron positivo para el XMRV también mostraban signos de estar contaminadas con material genético de los ratones, XMRV se parecía a un virus de ratón. Otro mostró que algunos proveedores de equipo comercial habían permitido también que sus materiales fueran contaminados por material procedente de los ratones. Esto hizo que se considerara que la presencia de XMRV era una mera cuestión de la contaminación (aunque, posiblemente, uno que estaba totalmente fuera del control de los investigadores).

La pieza clave de evidencia se produjo en un análisis evolutivo de los orígenes de XMRV. Los investigadores encontraron que el grupo más diverso de las secuencias de XMRV provienen de una línea de células únicas de cáncer de próstata llamado 22Rv1 que se cultiva en el laboratorio. Todas las secuencias de XMRV aislados de pacientes agrupados en el árbol de la evolución derivaban en la misma línea celular de cáncer, es decir, los antepasados ​​de los virus que supuestamente se encuentran en los pacientes venían de una sola línea cultivada en el laboratorio a partir de células cancerosas. La implicación evidente es que las secuencias provenían de las líneas celulares en lugar de los pacientes.

¿Cómo un virus de ratón entra en esta línea celular en el primer lugar? Resulta que las células 22Rv1 comúnmente implantados en ratones inmunodeprimidos con el fin de poner a prueba diversos métodos para detectar y controlar el cáncer. Las células probablemente contrajeron el virus XMRV en uno de estos procedimientos.

En paralelo a este trabajo, el gobierno federal a través de la Investigación Científica de Trabajo del grupo sanguíneo XMRV continuó bajo los auspicios de los Institutos Nacionales de Salud y el Departamento de Salud y Servicios Humanos. Se organizó la distribución de muestras a nueve laboratorios separados, con los pruebas a doble ciego con las muestras. Los resultados, publicados en la misma revista, donde el documento del CSA apareció por primera vez, fueron definitivos. La conclusión de que "los ensayos actuales reproducidos no detectaron XMRV/MLV en muestras de sangre y que la detección de donantes de sangre no se justifica".

El estado de la situación fue resuelta: la detección de XMRV era un artefacto, producto de las diversas formas de contaminación y que se deriva de una línea celular que había cogido el virus durante los experimentos con ratones. En este momento, no hay indicios de que las personas que se hayan asociado con el virus de alguna enfermedad padecían un síndrome. La respuesta adecuada sería la de aceptar el peso de la evidencia y seguir adelante con otros proyectos, tal y como varios de los investigadores hicieron exactamente.

Judy Mikovits, sin embargo, no lo hizo.

Comportamiento no científico

A pesar de que las pruebas contra XMRV comenzó a aparecer, Mikovits desestimó el hecho de que otros laboratorios replicaban su trabajo con deficiencias técnicas, mientras que la defensa de su propia investigación sugería que los pacientes con SFC debían ser probados para XMRV. Muchos de sus antiguos colaboradores se separaron en varios momentos como una prueba más de que no estaba en los correcto.

Una parte de la comunidad de pacientes con SFC, eufóricos por el hallazgo del virus original, también se negaron a abandonar la idea. La misma cuenta como se describe la tenacidad de Mikovits para describir cómo una charla sobre su investigación tuvo una recepción brillante de los pacientes y los defensores, y algunos regalos, como pegatinas que decían: "Es el virus XMRV".

En algunos casos, acciones de Mikovits y sus ideas habrían tomado un giro más oscuro, uno centrado en reducir los investigadores que produjeron resultados contrarios. De hecho, muchas de las tácticas suenan similares a los empleadas contra los científicos del clima: como The Guardian señaló, los activistas fueron "bombardeado con investigadores de libertad de información, hizo rondas de quejas a los comités de Ética de la Universidad sobre el comportamiento de los científicos y envió cartas falsas alegando que los científicos estaban a sueldo de las compañías farmacéuticas y de seguros". Otros investigadores habrían recibido amenazas de muerte.

Este tipo de comportamiento en absoluto estaba vinculada a Mikovits y no hay razón para pensar que se iba a tolerar. Es, sin embargo, suficiente para disuadir a la gente de entrar en el campo, lo que podría sesgar la investigación futura sobre las causas del síndrome de fatiga crónica o prevenir una mejor comprensión de la propagación de XMRV.

Aunque Mikovits no estaba perdonando el comportamiento anticientífico de algunos defensores de los CFS, había indicios de que se involucró en el comportamiento errático de su propiedad.

De las malas noticias a los acontecimientos surrealistas

Algunos de los datos originales publicados por Mikovits en Science resultaron ser el resultado de la contaminación identificada por otros laboratorios, una retracción parcial de ese documento se publicó en septiembre, en la misma edición que contenía los resultados de los nueve laboratorios, respaldados por el estudio del gobierno.

Una semana más tarde, Mikovits estaba fuera de su puesto de trabajo. Uno de sus antiguos colaboradores habían solicitado una línea celular utilizada en su trabajo a lo cual se negó. El Instituto Whittemore Peterson para Enfermedades Neuro-Inmunes, un instituto privado vinculado a la Universidad de la escuela de medicina de Nevada en Reno y donde Mikovits fue director llegó a estar implicado. Cuando a Mikovits su Instituto le solicito proporcionar células. Una vez más se negó y fue despedido por insubordinación.

Pero no era ni siquiera la peor parte de la semana. Un bloggero de ciencia que hacía investigaciones sobre los retrovirus obtuvo una copia de las diapositivas utilizadas en una charla de Mikovits. En está se mostraban algunos de los mismos datos utilizados en el artículo publicado en Science original, pero los datos habían sido re-etiquetados y descritos entonces como parte de un experimento muy diferente. Incluso una interpretación en los intentos de Mikovits para explicar la discrepancia indica una grave falta de ética de la investigación. (Curiosamente, Mikovits afirma que tuvo una disputa con el Instituto que se centró en su colaboración en la producción de las pruebas para XMRV. Como se mencionó anteriormente, un artículo anterior a su cita como un respaldo a dichas pruebas).

A principios de noviembre, su situación estaba completamente desentrañada. No sólo Mikovits no estaba dispuesto a entregar una línea de células a otros investigadores, también ella tomó sus cuadernos de laboratorio y diversos archivos de la computadora fue despedida de Whittemore Peterson. Estos eran propiedad del instituto, la cual respondió mediante la presentación de una demanda exigiendo su regreso y la recepción de una orden de restricción temporal para Mikovits necesaria para preservar los materiales.

Aunque Mikovits contrató a un abogado que participó en los cargos, luego de una semana fue arrestada en California. El cargo: la posesión de propiedad robada. Al parecer, el Whittemore Peterson Institute no quería correr riesgos cuando trataba de obtener sus cuadernos de nuevo. En otro giro surrealista, ScienceInsider dijeron que los cargos estaban relacionados con un robo que se informó el 9 de noviembre, varios días después de que la demanda fue presentada.

La ciencia trabajando como debe ser, incluso cuando las personas no lo hagan


No hay escasez de la fragilidad humana en esta historia. Mikovits se casó con su idea mucho después de que la evidencia de apoyo que debería haberla convencido de lo contrario. A lo sumo, que claramente tenía una actitud permisiva hacia la precisión de presentar resultados de la investigación y, además, se sentía poseedora de sus datos y recursos. Incluso si las acusaciones acerca de los cuadernos de laboratorio y archivos de computadora llegó a ser exagerada, el hecho de que ella se negara a enviar las células a antiguos colaboradores es en sí una violación importante de la ética científica.

No es ninguna sorpresa que los pacientes que con frecuencia tenían su tratamiento para el trastorno responda positivamente a las indicaciones de que había una causa concreta, biológica. Pero los científicos que no apoyan algo nunca van a terminar bien, sobre todo cuando todo indica que los científicos están siendo cuidadosos y exhaustivos. Por desgracia, ahora estamos viendo más de este tipo de comportamiento en áreas tan diversas como el cambio climático, seguridad de las vacunas y la investigación con animales.

La mayoría de las revistas, los organismos de financiación e instituciones de investigación tienen requisitos para la distribución de los reactivos publicados precisamente para bloquear el tipo de comportamientos que Mikovits en los que supuestamente está involucrada. Por la misma razón, los materiales de investigación son la propiedad de la institución donde la investigación se lleva a cabo, en lugar de ser propiedad de los investigadores individuales (aunque esto es también un poco de interés, de como las instituciones se quedan con la propiedad intelectual).

El Departamento de Salud y Servicios Humanos, ridiculizado por su ineficiencia, que habían reconocido una amenaza potencial para el suministro de sangre de la nación, organizó un consorcio de grupos de investigación con experiencia relevante en nueve diferentes instituciones, los arreglos necesarios para dar todos ellos muestras ciegas, y obtener resultados. Los resultados provisionales fueron publicados también en el camino. Cualquiera que haya experimentado lo difícil que puede llegar a ser que los académicos estén de acuerdo estarán doblemente impresionados con todo el resultado del grupo de trabajo realizado.

El sistema de publicación también parece haberse desenvuelto bien. A pesar de que la detección de XMRV era claramente algo dudoso en los estudios de cáncer de próstata, Science estaba dispuesto a publicar el documento original, siempre que sus críticos dijeran que los datos parecían sólidos. Otros investigadores no estaban convencidos pese a la publicación automática en una revista de alto perfil y rápidamente se dedicaron a tratar de replicar en muestras poblacionales diferentes. Los resultados, a pesar de que fueron publicadas en un perfil más bajo, en revista de acceso abierto llamado Retrovirology, resultó convincente y ayudó a construir un consenso científico en contra de la relación XMRV/SFC.

Estas características son partes necesarias en la obra científica basada en la auto-corrección. Con frecuencia, los científicos no ven el proceso de corrección donde la gente se pregunta algunos resultados y tratar de realizar una reproducción exacta de los experimentos que los generaron. Eso no es lo que suele ocurrir. En cambio, las mejores preguntas suelen centrarse en las consecuencias del resultado, ¿qué deberíamos estar viendo si esto es correcto?

En este caso, varios investigadores analizaron los resultados XMRV inicial y determinon que, si estaban en lo cierto, deberíamos ver algo similar usando diferentes ensayos y con muestras de pacientes diferentes. Cuando no, los resultados planteaban dudas sobre la hipótesis de conjunto. Si la evidencia a favor de la idea no se pudo encontrar por ninguna otra persona, se vería débil, incluso si asumimos que los experimentos originales habían sido hechos correctamente.

Ese tipo de preguntas, que se centran en las consecuencias y da lugar a una forma inexacta de la replicación, son esenciales para garantizar que el registro científico se mantenga fuerte en el largo plazo.

Referencia:

martes, 20 de septiembre de 2011

El olor de la esquizofrenia


Por un corto tiempo, la comunidad científica estaba emocionado por el olor de la esquizofrenia.

En 1960, un curioso artículo aparecido en la revista Archives of General Psychiatry sugería que no sólo las personas con esquizofrenia tenían un olor característico, sino que el olor podía ser verificado experimentalmente.

El trabajo de los psiquiatras Kathleen Smith y Sines Jacob señalaba que "muchos han comentado sobre el extraño olor que impregna las salas traseras de los hospitales psiquiátricos" y relataba anécdotas de la esencia supuestamente curiosa relacionada con el diagnóstico de personas con esquizofrenia.

Después de haber trabajado en una feria y volver a las salas de los hospitales psiquiátricos "mi primera reacción sería la de señalar que el "olor extraño "es más probable que provenga del personal que de los pacientes, pero Smith y Sines se comprometieron a revisar sus observaciones.

Recogieron el sudor de los 14 pacientes de hombres blanco con esquizofrenia y 14 pacientes comparables con "síndromes cerebrales orgánicos" y descubrieron que podían entrenar a ratas para distinguir de forma fiable los olores, mientras que un panel humanos parecía ser capaz de hacer lo mismo.

Al parecer, el respaldo de la habilidades nasales de dos especies diferentes, la ciencia intentaba determinar el origen del "olor de la esquizofrenia".

Dos años más tarde los investigadores de Washington sugirieron que el olor podría ser provocado por la bacteria Pseudomonas aeruginosa, pero una investigación encontró que no era más común en personas con esquizofrenia que aquellos sin el diagnóstico.

Pero justo antes del final de los años 60, el equipo de investigación original dejó caer una bomba científica. Afirmó haber identificado el olor específico de la esquizofrenia y sus resultados se publicaron en Science.

Utilizando cromatografía de gases se identificó a la "sustancia olorosa", como trans-3-metil-2-hexenoico, ahora conocido como TMHA.

En este punto, es posible la falta de interés en la mención de un producto químico aparentemente insignificante asociado con la enfermedad mental, pero para entender por qué se salpicó con tanta importancia un artículo en el equivalente científico a revista Vogue se necesita comprender sobre la historia, sueños y esperanzas de la investigación en psiquiatría.

Una gran parte de principios del siglo 20, la psiquiatría fue a la caza de lo que se llamó una "toxina esquizofrenica" -una toxina que supuestamente provocaba el desorden-.

Una gran parte de los principios de interés científico en la psicodelia se basó en la misma idea por la cual los psiquiatras se preguntaban si la flexión en la realidad de  drogas como el LSD y la mezcalina estaban afectando a las mismas sustancias químicas, o, en algunos casos, podría ser en realidad el "toxina esquizofrenica".

Así que una sustancia química identificada de forma única en el sudor de las personas con esquizofrenia fue una gran noticia. Los sueños de Premios Nobel, sin duda, pasó por la mente de los investigadores, ya que brevemente dejaron de pensar en la posibilidad de que finalmente descifrar el "misterio de la locura".

Como la ola del éxito entusiasmo, otros científicos rápidamente volvieron a los laboratorios, pero no podía confirmar la relación - los resultados siguieron llegando en negativo-. En 1973 el equipo de investigación original, añadió su propio estudio acompañado de una decepción y la conclusión de que el "olor esquizofrénico" estaba descartado.

Mirando hacia atrás, ahora sabemos que TMHA es realmente un componente importante en el olor del sudor. Curiosamente, resulta que se limita en gran medida a las poblaciones caucásicas, pero no hay ningún vínculo con enfermedades mentales o trastornos psiquiátricos confirmados.

La teoría parece ser una curiosa anomalía en la historia de la psiquiatría, pero de vez en cuando hace una reaparición. En 2005, un estudio afirmó que el olor existe, pero es "complejo y no puede limitarse a un solo compuesto, sino más bien a una variación global del olor corporal", pero siguió sin repeticiones o las subsecuentes nuevas investigaciones.

Referencia:

lunes, 19 de septiembre de 2011


La mecánica cuántica tiene un concepto llamado "función de onda". Un concepto importante ya que contiene toda la información cuantificable acerca de una partícula (o grupo de partículas) dentro de ella. En la práctica, la función de onda describe un conjunto de probabilidades de cambio en el tiempo. Cuando hacemos una medición, lo que realmente estamos metiendo en la función de onda, es cuantificar que estas probabilidades de colapso y tener un valor definido. El valor que predice la función de onda está determinada por las probabilidades relativas de todos los posibles resultados de la medición.

Pero físicamente, la función de onda es problemática. A menudo es posible averiguar el significado físico de un símbolo en una ecuación por mirar a las unidades físicas que se utilizan para medirla. Un rápido examen de la función de onda indica que las unidades de la función de onda no tienen mucho sentido. Para evitar una hernia mental, los físicos se dicen unos a otros que la función de onda es una herramienta de cálculo útil, pero sólo tiene relevancia física en términos de estadísticas, en lugar de tener una existencia concreta. En otras palabras, en realidad no es "real".

Hasta ahora, hemos tomado la comodidad de la idea de que, real o no, los resultados de la función de onda sería la misma. Lo que no preocupa, ¿verdad? Muy posiblemente mal. En un artículo publicado en arXiv, un trío de investigadores ha demostrado que no se puede tener las dos cosas, una función de onda puramente estadísticas no siempre dan los mismos resultados que una función de onda con el significado físico real.

Sólo ciencia

Hay una larga historia, en la cual muchos de los físicos desconcertados muestran que la función de onda debe ser un objeto extraño. El entrelazamiento cuántico es un resultado directo de las propiedades de la función de onda, por ejemplo, y el entrelazamiento prevé partículas separadas por un abismo de espacio, pero al parecer, están en contacto instantáneo. De acuerdo con las reglas de la mecánica cuántica, si medir el giro de un par de partículas entrelazadas, luego de que la medición automática e instantáneamente define el giro de los otras ... aunque sea en el lado opuesto del Universo.

Estos hallazgos fueron sólo de naturaleza teórica hasta la década de 1980. Desde entonces, hemos confirmado que el entrelazamiento es posible y se ha tratado de medir la velocidad con que el colapso de función de onda viaja entre partículas entrelazadas. La respuesta es: rápida. Mucho más rápido que la velocidad de la luz (o neutrinos). La conclusión parece ser que las extrañas consecuencias de la función de onda son reales.

¿Pero es la función de onda en si mismo "real" en el sentido tradicional?

La única manera de resolver esto es crear una situación en la que la función de onda actué como un objeto estadístico y produzca un resultado diferente experimental de la función de onda como un objeto real. Hasta ahora, esto ha demostrado que es difícil de alcanzar. Pero, teniendo en cuenta las consecuencias de las medidas conjuntas en los objetos de forma independiente preparado, los investigadores han demostrado que es posible que las versiones de estadística y real de la función de onda produzca resultados diferentes.

No intente esto en casa

Imagine que construir un sistema que está diseñado para preparar un fotón en un estado particular, llamado "bueno". De vez en cuando, sin embargo, se equivoca y utiliza un método ligeramente diferente, la preparación de un fotón en un estado diferente, pero relacionado, llamado "malo". Para cualquier fotón particular, no podemos decir que el método fue utilizado, ya que cualquier medida que podríamos hacer es compatible con los métodos de preparación. Pero siempre hay una posibilidad de que el sistema ha preparado un fotón mal.

Ahora, extendemos nuestro experimento con dos máquinas que son réplicas de cada uno. Estos fotones individuales de cada preparación y enviados a los detectores para la detección de las articulaciones.

Con dos fotones, hay cuatro posibles resultados de la medición (bueno-bueno, bueno-malo, malo-bueno y malo, malo). Nuestras mediciones de trabajo mediante la determinación de que el Estado no está en pareja (una combinación de no bueno-bueno, no es bueno-malo, no está malo-bueno, y no es malo-malo). Si la función de onda es un objeto real, una de esas posibilidades siempre tiene una probabilidad de cero, porque la función de onda es o que representa el estado bueno o el mal estado, pero no ambos. Sin embargo, si la función de onda es de naturaleza estadística, entonces los estados buenos y malos se describen igualmente bien y siempre existe la posibilidad de que el detector de estado malo-malo a pesar de que se haga clic en una de las máquinas de preparación de fotones se envió una buena fotón.

Pienso en esto como una especie de meta-argumento de la superposición. La mecánica cuántica puede permitir que la función de onda represente una superposición de estados diferentes, con resultados de medición determinado por las probabilidades. La interpretación estadística de la función de onda implica que no puede haber una superposición de estados de superposición, lo que cambia las probabilidades relativas de los resultados de medición. En este caso, la superposición no era única. Si la función de onda es un objeto real, sin embargo, la propia superposición tiene que ser un objeto único.

¿Qué significa todo esto? Esto significa que alguien va a tener que hacer un experimento muy elegante y difícil de probar esto. Cualquier experimento real tiene el ruido, por lo que los clics que no debería haber ocurrido debido al ruido que se distingue de clics que no debería haber pasado (pero) debido a que la función de onda es de naturaleza estadística.

En cuanto a las implicaciones, así, sin duda esto significa mucho para aquellos que trabajan en el nivel más fundamental de la mecánica cuántica. Al igual que los trabajos anteriores, este también puede trabajar su camino en la cadena de aplicaciones, así como el entrelazamiento tiene. Para aquellos de nosotros que trabajamos a un nivel más "cállate y calcula" el nivel, sin embargo, esto no va a cambiar los resultados o nuestra interpretación de esos resultados.

Referencia:

viernes, 16 de septiembre de 2011

El Homo erectus olvido sus mejores herramientas cuando salió de Africa

Hacha de mano achelense. Créditos Ars Technica.
Teniendo en cuenta que los chimpancés han demostrado la capacidad de fabricar y usar herramientas en la naturaleza, es muy probable que nuestros antepasados ​​humanos heredaran algo de esa capacidad de un ancestro que tanto los seres humanos y los chimpancés tenemos en común. Pero, a partir de los Australopitecus, nuestros antepasados ​​comenzaron a hacer herramientas permanentes de rocas. Viejas herramientas olduvayense luego fueron utilizadas por los primeros miembros del género Homo y llevándose a cabo en África durante la propagación mundial del Homo erectus.

Por 1,4 millones de años, el Homo erectus africano estaba utilizando la tecnología achelense, herramienta mucho más compleja y sofisticada, que más tarde saldría de África. Sin embargo, la transición entre los dos tipos de herramientas ha quedado claro. Ahora, los científicos informan de los primeros en encontrar las herramientas olduyavense y achelense se han encontrado en el mismo sitio, que es lo suficientemente grande para indicar que las herramientas achelenses estaban disponibles cuando el Homo erectus salió primero de África.

El sitio en cuestión se encuentra cerca del lago Turkana en Kenia, que ya era famoso por los hallazgos relevantes de los orígenes humanos, incluyendo el esqueleto del Niño de Turkana un Homo erectus, que data de hace 1,5 millones de años. Las laderas cerca de la orilla noroeste del lago contiene un extenso registro sedimentario que se pueden combinar con otros en la zona, incluyendo algunos que han sido datados con la desintegración radiactiva. A unos pocos metros por debajo de los sedimentos que contienen las herramientas se encuentra una característica que se ha fechado a 1,9 millones de años, por encima de ellos, una característica diferente establece un límite menor a 1,5 millones de años. Esta última cifra es bastante significativa, ya que no hay ninguna herramienta fiable de fecha Achelense mayores de 1,4 millones de años.

Extrapolando los datos entre la profundidad de los depósitos, los autores estiman que las herramientas son más o menos entre 1,72 y 1,81 millones de años. Que permite iniciar la reducción a cero en una fecha más precisa sobre la base de inversiones en el campo magnético de la Tierra. Esto proporciona una estimación más firme: 1,76 millones de años, 350,000 años más antiguos que el sitio anterior que había sido fechado con tanta precisión. También se alinea con uno de los primeros fósiles de Homo erectus, reforzando el vínculo entre los dos.

Ya que ambas tecnologías de fabricación de herramientas estaban presentes en los sedimentos del mismo, el sitio ofrece una clara indicación de que un conjunto de técnicas no se limitó a sustituir a los otros. Cualquiera de las herramientas achelenses fueron desarrolladas por las personas que continuaron utilizando sus técnicas anteriores o la tecnología achelense fue importada sin el desplazamiento de la nativa. En cualquier caso, el sitio sugiere una transición más gradual que la evidencia anterior había indicado.

La edad de estas herramientas también sugiere que el desplazamiento era muy, muy gradual. No se había extendido lo suficiente como para ser utilizado por los primeros miembros de Homo erectus que salieron de África en la misma época y no tenemos fechas fiables sobre herramientas achelenses en el Medio Oriente, que son mucho mayores que un millón de años . Por lo tanto, incluso si nuestros antepasados ​​eran ávidos usuarios de la herramienta, no eran del tipo que le gusta la adopción de nuevas tecnologías.

Referencia:

viernes, 9 de septiembre de 2011

El Homo sapiens pudo haberse cruzado con tres especies de homínidos

Créditos: Ars Technica.
La evidencia de cruce entre humanos modernos y variantes humanas arcaicas ha supuesto un poco de asimetría. Los seres humanos se cruzaron con neandertales y Denisovans sólo después de que salieron de África, por lo que el ADN de estos homínidos primitivos se pueden identificar mediante la comparación de las poblaciones europeas y asiáticas con muestras de antepasados que ​​nunca salieron de África. Pero eso deja a la inversa la pregunta sobre si los primeros humanos en África se mezclaron con algunas de las poblaciones arcaicas. Un estudio publicado por PNAS sostiene que el mestizaje que hemos visto en otros lugares, de hecho, tuvo lugar también en África.

En todo caso, podríamos esperar que el entrecruzamiento fuera más probable en África, donde los autores de la nota del nuevo artículo señalan "el registro fósil indica que una variedad de formas de transición con un mosaico de rasgos arcaicos y modernos vivió en  una extensa área geográfica de Marruecos a Sudáfrica entre 200 y 35 kya [miles de años]". Sin embargo, no hay ninguna clase de pruebas en el ADN antiguo de una cruza con neandertales y Denisovans. Muchas áreas del continente no son afines a la preservación del ADN, lo que significa que nunca podría obtener ese tipo de pruebas.

En ausencia de este tipo de pruebas concluyentes, los autores han hecho un argumento estadístico. El ADN que proviene de una población que de otro modo se reproduce de forma aislada (el término técnico para este proceso es "introgresión") debe tener ciertas características. En cuanto a los cambios en la secuencia de ADN, que debe aparecer debe ser mucho más distante de otras variantes humanas de estas variantes. Y sólo debe estar presentes en un subgrupo de la población humana, los descendientes de aquel en el que el mestizaje se llevó a cabo.

Esta evidencia no es concluyente, este tipo de patrones es poco probable que ocurran por casualidad, pero aún es posible. Y las variantes raras pueden llegar a ser comunes en una población debido a la selección positiva para una mutación favorable. Sin embargo, varias áreas que encajan en esta descripción puede proporcionar una indicación del cruce arcaico.

(Este tipo de argumentos estadísticos basados ​​en diferencias en el ADN en las poblaciones se hacían inmediatamente antes de la publicación del genoma del Neandertal, que puso fin a todo debate).

Los autores hicieron su análisis usando dos de las poblaciones más antiguas y más diversas de África (cazadores-recolectores) y un grupo agrícola de África Occidental. A continuación, examinaron la diversidad genética de estas poblaciones para estimar la dinámica de la población. Estas mostraban una gran expansión reciente de la población humana, en consonancia con otros estudios. Pero eso no era todo lo que mostraba. "La estimación de un tiempo de divergencia, que precede al origen de los humanos modernos basados ​​en los datos fósiles (450 kya, comparación Biaka-Mandenka) fue inesperada". En otras palabras, parecía que las dos poblaciones se habían separado antes de que los humanos modernos existieran como un grupo distinto. La probabilidad de que esto se explique por el azar es sólo de un dos por ciento.

Los autores construyeron un modelo para una población en la que se había producido una separación relativamente antigua, seguida de un caso más reciente de la introgresión. Se encontraron con que se ajustaban los datos de los dos grupos cazadores-recolectores muy bien y que sugiere un patrón similar al observado con ADN de Neandertal: una fuente que se había separado de la estirpe moderna hace 700,000 años, seguido por la endogamia hace unos 35,000 años . Incluso identificar una sola área del cromosoma 4 da probabilidades de ser producto de la introgresión.

Todo ello es muy sugestivo, pero hay algunos aspectos del estudio que la hacen muy provisional. Muchas de las pruebas estadísticas de significación son bastante dudosas, lo suficiente como para lo que se espera se produzcan por casualidad, que se ha hecho con un número razonable de estudios similares. Y la cantidad del genoma que el modelo de los autores supone provenían de fuentes arcaicas -uno por ciento- es un efecto bastante marginal desde el principio. La prueba de ADN es un poco más sólida, estadísticamente, sino que también muestra un patrón anómalo de la herencia de toda la región de interés.

Por lo tanto los resultados no parecen como un slam-dunk. Tendría sentido que el tipo de mestizaje que ocurrió fuera de África también hubiera sucedido allí y la evidencia en el trabajo es sin duda una buena opción para que ocurra. Sin embargo, un estudio que involucrará más poblaciones utilizando todo el genoma, probablemente daría un caso más convincente.

Siempre existe la posibilidad de que alguien se la arregle para obtener el ADN de cada uno de los esqueletos que mencionan los autores.

Referencia:

lunes, 5 de septiembre de 2011

Usar el agua de oceános para recargar baterías

Créditos: Cocoabiscuit
Cuando las personas piensan en obtención de energía de los océanos, se suele pensar en energía proveniente de olas o mareas, en las que el movimiento del agua produce electricidad. Un artículo en Nano Letters sugiere una forma alternativa de convertir el océano en fuente energía, recurriendo al hecho de que es salada. Ha habido algunas ideas acerca de cómo extraer la energía mediante la diferencia de salinidad entre la sal y el agua dulce, pero el documento sugiere un enfoque bastante intrigante: Tratar a todo el océano como si fuera una batería.

El ciclo de carga de la batería por lo general implica el intercambio de electrones con los iones que barajan entre un medio de almacenamiento y los electrodos, normalmente, los iones se quedan encerrados dentro de la batería. El nuevo dispositivo tiene un enfoque muy diferente, permitiendo que los iones se intercambien libremente con el agua que fluye a través de esté.

El dispositivo cuenta con electrodos que reaccionan específicamente con algunos de los iones que se encuentran normalmente en el agua de mar. Uno está hecho de dióxido de manganeso, que puede reaccionar con un ion de sodio para formar Na2Mn5O10. El material también pasa a ser económico, ambientalmente benignas y tiene una alta densidad de energía. Los autores fueron cuidadosos para no elegir otro electrodo, ya que de utilizarse plata, puede reaccionar con el cloro. Así, los dos electrodos en el dispositivo son capaces de secuestrar los iones que se forman cuando el cloruro de sodio -sal común- se disuelve en el agua.

Esto permite un ciclo simple. Cuando el agua salada fluye sobre los electrodos, capturan los iones, produciendo una batería cargada. Cuando el agua salada se sustituye por agua dulce, el ciclo se puede revertir, pero para poder hacerlo, los electrones tienen que fluir entre los dos electrodos, creando energía útil actual. Los autores llaman a su dispositivo una "batería de entropía de mezcla" y muestran algunos ejemplos donde se logra alrededor de 75 por ciento de eficiencia teórica y que no disminuye en más de 100 ciclos. También muestran que funciona perfectamente bien con las muestras del medio ambiente.

No hay una gran cantidad de energía disponible en el dispositivo, pero los autores calculan que un flujo de agua dulce de 40 metros cúbicos por segundo podría generar hasta 100 megavatios. En contexto, las Cataratas del Niágara producen más de 1,800 metros cúbicos por segundo. A nivel mundial, alrededor de 2 teravatios de energía podrían ser producidas. Eso no es mucho en comparación a las necesidades de nuestra energía, pero el enfoque podría ser parte de una cartera de renovables, pudiendo funcionar todo el tiempo, siempre que la corriente de agua dulce se mantenga separada de la salada.

Sin embargo, los autores ofrecen una aplicación menos grandes, pero tal vez más convincente: un sistema sencillo para almacenar la energía solar. Un artefacto solar podría evaporar el agua fresca de una reserva de sal, lo que permitiría una fuente de material para descargar la batería. Los autores también muestran uno de estos dispositivos y demuestran que puede funcionar durante más de 100 ciclos sin pérdida de eficiencia.

Para todos sus dispositivos, los autores dicen que debe ser posible mejorar la geometría de los electrodos para estimular aún más la eficiencia. Este no parece el tipo de cosas que va a establecer un nuevo mundo -la energía involucrada es simplemente demasiado pequeña- pero una versión mejorada puede proporcionar una forma sencilla y flexible de almacenar energía renovable en algunos contextos específicos.

Referencia:

viernes, 2 de septiembre de 2011

El detector LHCb pone en aprietos la Teoría de la Supersimetría

Detector LHCb. Créditos: CERN.
Dos de los detectores de propósito general en el LHC, ATLAS y CMS, tienden a mantener un perfil alto, ya que están diseñados para ser capaces de detectar todo lo que ocurra en las colisiones: fuera el ansiado bosón de Higgs, la materia oscura o algo aún más exótico. LHCb es un poco más especializado, ya que está diseñado específicamente para detectar colisiones que incluyen una partícula que contiene un quark abajo (de forma genérica, estas partículas son llamadas mesones B). De este modo, se supone que debe proporcionar la prueba más precisa de una serie de predicciones realizadas por el Modelo Estándar, en caso de indicar una falla, podría proporcionar indicios de la supersimetría o un mecanismo que explique por qué nuestro universo está lleno de materia y no antimateria.

Al igual que con los otros dos detectores, el equipo que esta detrás de LHCb ha reunido los datos preliminares de las reuniones de física en verano y hasta ahora, todo parece muy bien, el detector ya ha proporcionado la prueba más precisa de algunas de las características del Modelo Estándar. Y, hasta ahora, ha salido ileso, lo que puede significar malas noticias para la supersimetría y enviar los teóricos de nuevo a buscar nuevas teorías respecto a la asimetría materia/antimateria.

Quarks bottom son la contraparte más pesada de los quarks abajo que componen la mayor parte de la materia con la que normalmente se experimenta. Existen sólo por un corto período de tiempo antes de decaer, pero duran lo suficiente para formar partículas de corta vida con otros quarks. La decadencia del mesón B, impulsado por la desintegración del quark bottom, puede ocurrir a través de una serie de intermediarios diferentes, la frecuencia exacta de cada vía y las partículas que lo acompañan son predichos por el Modelo Estándar. Al experimentar lo suficiente con estos acontecimientos, debe ser posible decir cuándo una de estas predicciones falla.

Una sola falla podría tener algunas implicaciones graves. La decadencia de los mesones B se prevé favorecen la producción de la materia sobre la antimateria, pero no lo suficiente como para explicar, posiblemente, la preponderancia enorme de la materia vista en el universo actual. Una desviación mayor que la prevista podría ayudar a equilibrar los libros sobre la materia. Además, algunos tipos específicos de desintegración son sensibles a la presencia de partículas que todavía no hemos detectado, como la familia adicional de partículas predichas por la supersimetría, una teoría candidata para reemplazar al modelo estándar.

La partícula más ligera predicha por la teoría de la supersimetría tiene algunas propiedades interesantes, es estable y no interactúa con la materia ordinaria y su masa es suficiente para permitir dar cuenta de la materia oscura observada por los astrónomos y cosmólogos. Descartar las partículas supersimétricas provocaría en la comunidad de la física hacer un serio replanteamiento. Hasta ahora, sin embargo, los resultados de la CMS y ATLAS no han sido prometedores y los datos de LHCb parecen continuar esa tendencia. En una charla de Raven Gerhard, durante una representación de LHCb, varias diapositivas fueron etiquetadas de tal forma que mostraban los datos para proporcionar una gran sensibilidad a la nueva física, como la supersimetría. En cada una de estas diapositivas, los datos sobre predicciones del Modelo Estándar, se mostraban así:
Los datos de LHCb no se apartan significativamente de las predicciones basadas en el Modelo Estándar.

Otra diapositiva muestra una especie de decaimiento de mesones B que podría ir a través de partículas intermediarias supersimétricas, como el chargino, un bosón de Higgs o un neutralino. No hay rastro de estas partículas exóticas presentes. Como resultado, algunos han sugerido que los resultados podrían ser el último clavo en el ataúd de las formas más simples de la supersimetría.

Lo mismo se aplica a la caza mayor de materia/antimateria asimetrica. Los resultados anteriores de Tevatron habían sugerido algunos tipos de desintegración de mesones B que podrían insinuar una diferencia con el modelo estándar, pero los datos de LHCb, cuentan con una mayor certeza estadística, indicando que la diferencia con el Modelo Estándar es insignificante. Como una de las diapositivas, lo resumió: "No hay señales de una nueva física por el momento."

La misma diapositiva, sin embargo, advierte que "Sólo hemos hecho más que empezar". Con el tiempo, gracias a los altos niveles energía que emplea el LHC, las vías de descomposición raras deben ser observados e incluso los más comunes se pueden medir con mayor precisión. Aunque las cosas no pintan bien para las formas más simples de la supersimetría, LHCb podría detectar alguna falla en el modelo estándar que ayudará a los teóricos para poder concretar en el futuro.

Referencia:

Related Posts Plugin for WordPress, Blogger...