viernes, 29 de octubre de 2010

De Delfos a Paul: La persistencia del oráculo

La Copa Mundial de Fútbol de Sudáfrica 2010 no tuvo como fenómeno mediático a un jugador o una selección, en realidad para muchos la figura de los medios fue un animal "vidente", capaz de predecir y más aún acertar los resultados. El pulpo Paul supero con creces en popularidad a la mascota del mundial el leopardo Zakumi, tal fue su impacto que gano espacios en cadenas tan dispares como la BBC o CNN.

En Internet se volvió uno de los términos más buscados, con cerca de 1,170,000 páginas en la red y  su artículo en la Wikipedia. Macacos, langostas, tortugas fueron su competencia pero ni siquiera fueron reconocidos. Atrás quedo el delfín Flipper o la orca Keiko, en China se le llamo la nueva estrella del pop e inició la producción de la película "El asesinato de Paul el pulpo" a la vez que disparó los precios de pulpos. En la India hizo que aumentarán las peticiones de tal animal tanto como mascota como para predecir el futuro, los hindués aficionados a la adivinación encontraron en Paul su nuevo oráculo.

El fervor que despertó lo convirtió en el animal más solicitado del acuario de Oberhausen y a ponerlo bajo un estricto control de seguridad con el fin de evitar le hicieran daño por grupos nada agradados con sus prediccciones.

Contradictoria fue la pasión que despertó en la sociedad occidental, en pleno siglo XXI, donde el pensamiento racional y el excepticismo han avanzado, pero que al mínimo evento se deja entrever que aún persiste la creencia en supersticiones y en consecuencia la influencia de la pseudociencia.

Los oráculos en la antiguedad siempre tuvieron un lugar de respeto, poder e influencia en las religiones paganas y animistas, estableciendo un vínculo con las divinidades. Uno de las mas frecuentes fueron los oráculos animales, quienes asistidos por un sacerdote permitía conocer la voluntad de los dioses. A través del sacerdote intermediario era posible la comunicación e interpretación del tiempo, ya fuera presente, pasado o futuro. Las personas deseosas de respuestas  acudían para poder resolver diversos aspectos de su vida, muchos de ellos vitales como son la salud, la economía o decisiones personales. A la vez los oráculos servían para predecir eventos favorables y también desfavorables para la comunidad. En Roma era común leer el futuro en los movimientos del cuerpo o las entrañas de los animales, mediante la observación del vuelo de pájaros o el comportamiento de gallinas. Cuando las aves volaban a la derecha era una mala señal, a la izquierda era bueno. Si las gallinas al comer tiraban pequeños trozos, era una buena señal, si no comían o se alejaban de su jaula, era un mal augurio. Tal era su influencia que durante la primera Guerra Punica, un almirante romano consultó un oráculo compuesto de pollos, los cuales al no comer provocaron la ira del almirante quien los arrojó al mar "si no comen que beban", como se había presagiado el resultado de la batalla favoreció a Cartago. Julio Cesar al combatir a los germanos, empelo el mismo método, llenando de maíz la zona del Rin por la cual iba a cruzar, pero en esta ocasión las gallinas si comieron y el resultado fue favorecedor para él.

En China los perros pequineses eran venerados y consultados, quienes interpretados por un sacerdote que tomaba en cuenta el movimiento de su cuerpo podía responder a las preguntas de los fieles. En los Andes se consultaba el movimiento de animales como félinos, aves y serpientes, práctica que aún persiste hoy en día pese al esfuerzo de los misioneros durante la conquista por erradicarlo, actividad que no ceso y que gano adeptos entre la sociedad en general. En Perú hoy en día aún abren las entrañas de cuyes, las cuales son leídas por un chamán.

Pasado o presente, oriente u occidente, no hay una frontera visible entre la razón y la superstición, las prácticas persisten. Ya fuera el Pulpo Paul o la Marmota Phil de Punxsutawney, Pensilvania el poder de convocatoria esta aún presente.

Las razones pueden ser múltiples: estrategia de los medios o la persistencia de la creencia. Los que defienden a la marmota, aseguran que su pronóstico acierta entre un 75% a un 90%, pero un estudio realizado en Canada que analizó su eficiencia en los últimos 40 años lo sitúa en un 37%. Informes del National Climatic Data Center anuncia que la marmota solo ha acertado un total de 28%. Volviendo al pulpo, en la Eurocopa 2008 acertó en un 80% y el Mundial logró una eficiencia de 100% ¿Cómo logró tales resultados?

Para la mayoría, los resultados de Paul fueron meramente una anecdóticos. De acuerdo a expertos la elección de Paul fue por el estado de los mejillones (color, tamaño, otros) que influyó en la elección de un mejor alimento ya que tales animales pueden distinguir la calidad de su comida, otros afirman que el Paul de Mundial no es el de la Eurocopa, puesto que hace dos años el pulpo ya era adulto y tal especie, el pulpo común (Octopus vugaris), no vive más de tres años.

El pulpo común es una especie que vive en el mar Mediterráneo y el océano Atlantico. Tales animales tiene el sentido de la vista y oído muy desarrollados, pese a que no distinguen colores, son capaces de distinguir entre tonos y formas, pudiendo enfocar su visión para adaptarse a cambios de luz. De ahí que quizá la elección de la bandera español haya sido por su contraste, aunque también está el factor de los cuidadores que conociendo los resultados pudieran influí en la predicción usando para ello los mejillones. Por último estarían el público y los periodistas, quienes con sus gestos y movimientos de forma inconsciente influenciaron a Paul, otro Clever Hans.

Si se toma en cuenta la probabilidad, otorgando  una posibilidad de que cada bandera sea escogida en un 0.5 en catorce partidos, el resultado es 0.006, un suceso improbable.

Pero si se toma en cuenta las capacidades que tiene el animal, su capacidad de distinguir colores, forma, el estado de su comida, su inteligencia, el prestar atención a señales no verbales estamos frente a un interesante caso de estudio de comportamiento animal.

De acuerdo al antropólogo Dan Sperber, el interés generado se basa en prestar atención a eventos donde el patrón rompe con nuestras expectativas. El estar frente a un patrón irregular e improbable, capta la atención de inmediato y alimenta nuestras supersticiones, las cuales a través de la transmisión cultural se benefician. Tales mecanismos podrían explicar porque prosperan creencias erróneas como milagros, periodismo de fantasmas o inclusive religiones explicando así porque a las personas le gustan las explicaciones pseudocientíficas que las basadas en la ciencia.

lunes, 25 de octubre de 2010

El holograma de Hogan: Un Universo holográfico

En 2008, el astrofísico de partículas del Fermilab, Craig Hogan, hizo una hipótesis que polarizo opiniones: El universo 3D en el que parece que vivimos no es más que un holograma.

Para comprobar su hipótesis está construyendo el reloj más preciso hasta ahora creado para medir directamente si nuestra realidad es una ilusión.

La idea de que el espacio-tiempo puede no ser completamente liso – como una imagen digital que se pixelea conforme se aumenta su tamaño – ya había sido propuesto por Stephen Hawking y otros. Las posibles pruebas de este modelo aparecieron el año pasado en un incomprensible “ruido” que plagaba al experimento GEO600 en Alemania, el cual busca ondas gravitatorias procedentes de agujeros negros. Para Hogan, este ruido sugería que el experimento se había topado con el límite inferior de la resolución del espacio-tiempo.

La física de los agujeros negros, en la que el espacio y el tiempo se comprimen, proporciona una base para las matemáticas que demuestran que la tercera dimensión es posible que no exista. En esta hipótesis bidimensional del universo, lo que percibimos como una tercera dimensión sería realmente una proyección del tiempo entrelazado con la profundidad. De ser cierto, la ilusión puede que sólo se mantenga hasta que el equipo se haga lo bastante sensible para hallar sus límites.

“No se puede percibir debido a que nada viaja más rápido que la luz”, dice Hogan. “Esta visión holográfica nos da el aspecto que tendría el universo si estuvieses sentado en un fotón”.

No todo el mundo está de acuerdo con esta idea. Sus bases están fundamentadas en matemáticas más que en datos puros, como es habitual en la física teórica. Y aunque un universo holográfico podría responder muchas preguntas sobre la física de los agujeros negros y otras paradojas, se enfrenta con la geometría clásica, que demanda un universo liso, con caminos continuos en el espacio-tiempo.

“Por lo que queremos construir una máquina que sea la medida más sensible jamás realizada del propio espacio-tiempo”, comenta Hogan. “Eso es el holómetro”.

El nombre “holómetro” se usó por primera vez para un dispositivo de investigación creado en el siglo XVII, un “instrumento para tomar todas las medidas, tanto en la Tierra como en los cielos”. Hogan sintió que encajaba bien con la misión de su “interferómetro holográfico”, que actualmente está siendo desarrollado en el mayor laboratorio de láser del Fermilab.

En un interferómetro clásico, desarrollado por primera vez a finales del siglo XIX, un haz láser en un vacío impacta en un espejo conocido como divisor de haz, el cual lo rompe en dos. Los dos haces viajan en ángulos diferentes todo el recorrido a lo largo de dos tubos de vacío antes de impactar en espejos al final de los mismos y rebotar hacia el divisor.

Dado que la luz en el vacío viaja a velocidad constante, los dos haces debería llegar al espejo exactamente al mismo tiempo, con sus ondas sincronizadas para volver a formar un único haz. Cualquier vibración que interfiera cambiaría la frecuencia de las ondas a lo largo de la distancia viajada. Cuando retornan al divisor, ya no están sincronizadas.

En el holómetro, esta pérdida de sincronización tiene el aspecto de una agitación o vibración que representan movimientos en el propio espacio-tiempo, como la poca claridad de la radio que llega en un ancho de banda muy pequeño.

La precisión del holómetro indica que no tiene que ser grande; con 40 metros de longitud, sólo tiene una centésima parte del tamaño de los actuales interferómetros, los cuales se usan para medir ondas gravitatorias procedentes de agujeros negros y supernovas. Aunque debido a que las frecuencias del espacio-tiempo que mide son tan rápidas, tendrá que ser más preciso en intervalos de tiempo muy cortos, unos siete órdenes de magnitud mejor que cualquier reloj atómico actual.

“Las sacudidas del espacio-tiempo tienen lugar millones de veces por segundo, unas mil veces más de lo que tu oído puede escuchar”, dice el físico experimental del Fermilab Aaron Chou, cuyo laboratorio está desarrollando prototipos para el holómetro. “A la materia no le gusta agitarse a esa velocidad. Podrías escuchar frecuencias gravitatorias con unos auriculares”.

El truco, dice Chou, está en demostrar que las vibraciones no proceden del instrumento. Usando una tecnología similar a la de los auriculares con cancelación de ruido, los sensores externos al instrumento detectan las vibraciones y sacuden el espejo a la misma frecuencia para cancelarlas. Cualquier agitación restante a mayor frecuencia, proponen los investigadores, será prueba de un espacio-tiempo difuso.

“Con los largos brazos del holómetros, estamos aumentando la incertidumbre del espacio-tiempo”, señala Chou.

Al equipo de Hogan le gusta tanto la idea del holómetro que han decidido construir dos. Uno sobre el otro, de forma que las máquinas puedan confirmar las medidas de la otra.

Este mes, han logrado con éxito construir un prototipo de 1 metro del brazo de 40 metros, donde soldarán las partes del primero de los brazos de vacío.

Hogan espera empezar a recopilar datos el próximo año.

“La gente que trata de unir la realidad no tiene datos, sólo un montón de maravillosas matemáticas”, dice Hogan. “La esperanza es que esto les dé algo con lo que trabajar”.

Referencia:


Sara Reardon,"Hogan’s holometer: Testing the hypothesis of a holographic universe", Symmetry Magazine

viernes, 22 de octubre de 2010

El experto inconsciente

Créditos: vramak
Experiencia parece funcionar más eficazmente en la mente inconsciente. Un nuevo y extraño estudio sobre la predicción de los resultados en los partidos de fútbol sugiere un período de pensamiento inconsciente, por lo menos en los expertos, que es más eficaz para tener una precisión en el resultado.

La investigación fue dirigida por el psicólogo holandés Ap Dijksterhuis, en la cual participaron cientos de estudiantes holandeses que valoraron sobre lo que sabían de fútbol para predecir los resultados de cuatro partidos de la liga de fútbol en Holanda.

En el primer experimento, los participantes se dividieron en tres grupos, después de recibir los partidos en los cuales debían predecir los resultados, se les pidió ya sea responder de inmediato, o se les pidió dar su respuesta después de pensar en los resultados durante dos minutos, o bien, después de completar una "tarea de memoria de trabajo" durante dos minutos, diseñados para mantener la mente consciente ocupada.

Los primeros resultados son un golpe a los expertos deportivos en todas partes. En general, la experiencia apenas representó ninguna capacidad de predecir con precisión los partidos. De hecho, el conocimiento del fútbol representaban menos del 2% de éxito en general.

Sin embargo, cuando los expertos se compararon con los no expertos, la capacidad de lograr una buena predicción mejoro de manera significativa por un periodo de pensamiento no consciente - es decir, pasar dos minutos haciendo una «tarea de memoria" antes de contestar.

La cantidad de éxito previsto por los expertos sigue siendo baja, justo debajo de 7%, pero es más que la basada en la experiencia.

Por el contrario, deliberadamente el análisis de los partidos durante dos minutos o responder de inmediato lograron peores predicciones. Esto también se evidencia en contra del «efecto parpadeo», popularizado por el escritor Malcolm Gladwell, en la cual las respuestas inmediatas no son un éxito.

Los investigadores también realizaron un segundo experimento sobre la Copa Mundial para entender mejor por qué la mente inconsciente estaba haciendolo tan bien. Pidieron a los participantes adivinar el ranking mundial de cada equipo - la mayor predicción de éxito de partido en el torneo-.

La respuesta inmediata de los pensadores conscientes, no mostró mucha relación con el resultado de partidos. Los pensadores inconscientes, por el contrario, mostraron un fuerte vínculo entre el resultado y la clasificación.

El ranking mundial fue la pieza más valiosa de información para adivinar las puntuaciones de la Copa Mundial, pero incluso cuando la gente tenía una clasificación precisa, tendían a descartar esta información cuando se les da tiempo para reflexionar. Ya fuera una distracción por un buen jugador o la revelación sensacionalista sobre el equipo, el resultado era similar.

No es que estos tengan un efecto, pero para la mente consciente puede darle un peso excesivo.

La idea es que la mente inconsciente está trabajando en el fondo, con el problema, y que esto es más eficaz que dar una respuesta apresurada o una oportunidad para dar rienda suelta a un remplazo de lo que está pasando en la "parte de atrás de nuestra mente" con el detalle potencialmente irrelevante.

Mirando el cuadro más grande, los investigadores utilizaron una opción similar para recoger los resultados de las quinielas - la lotería es una popular forma de juego donde los apostadores predicen las victorias, derrotas, empates e los juegos-.

En el nivel individual el impulso en la precisión absoluta es pequeña, pero a largo plazo, los apostadores aumentan significativamente sus posibilidades al basarse en la deliberación inconsciente.

Lo cual significa que lo más probable pueda resultar efectivo en grandes escenarios.

Referencia:

lunes, 18 de octubre de 2010

Benoît Mandelbrot (1924-2010): el genio detrás de la geometría fractal

Ejemplo de Fractales
Benoît Mandelbrot, falleció el pasado 14 de octubre, para muchos fue uno de los últimos grandes matemáticos capaces de haber creado una nueva rama en las matemáticas: la geometría fractal. Una área novedosa y a la vez fascinante no solo por la teoría que la sustenta sino por las aplicaciones que se han obtenido a partir de los los resultados.

Biografía

Benoît Mandelbrot nació en Varsovia el 20 de noviembre de 1924 cobijado en  una familia con cierta tradición académica (sin embargo su padre se dedicaba a la compra-venta de ropa). Son dos tíos los que introducen a Mandelbrot en las matemáticas. Szolem Mandelbrojt, uno de ellos, lo educó cuando se familia se mudo a Francia en 1936.

Mandelbrot atrivuyo alguna vez que el éxito que había obtenido en las matemáticas se baso en una educación poco convencional que recibió durante el periodo bélico, lo que facilitò el desarrollo de una forma de pensar distinta a la habitual.

Estudió en la Universidad de Lyon para después continuar sus estudios en École Polytechnique en 1944 donde recibiría una influencia de Paul Lévy. Logro su doctorado en la Universidad de París y viajó a Estados Unidos, donde, entre otras cosas, fue el último estudiante de postdoctorado de John Von Neumann

Fue profesor en la Universidad de Harvard y en la Universidad de Yale (lugar en el cual terminó su carrera), entre otras instituciones. Desde 1958 laboró en IBM en el Centro de Investigaciones Thomas B. Watson de Nueva York, lugar donde tuvo compelta libertad para sus investigaciones.

¿Cuánto mide la costa de Gran Bretaña?


En 1967, Benoît publica en Sciencie el artículo "¿Cuánto mide la costa de Gran Bretaña?", donde expone con cierta evidencia empirica que la medición de una costa o frontera puede comportarse como un fractal a lo largo de un conjunto de escalas de medida.

Si se miden con tramos de 200 kilómetros el perímetro resultara sera menor que si se midiera con tramos de 100 kilómetros o de cincuenta.

En 1977 emplea el término fractal en su obra The Fractal Geometry of Nature con el cual designa objetos geométricos con una estructura irregular. Aunque Mandelbrot no daba una definición precisa, caracterizaba a los fractales mediante las tres propiedades siguientes:

a) Figuras que se repiten en sí mismas infinitas veces a distintas escalas (conjuntos autosemejantes).
b) Figuras con dimensión no entera (dimensión fractal).
c) Conjuntos que aparecen tras procesos iterativos infinitos.

Los fractales pueden ser generados por un proceso recursivo o iterativo, capaz de producir estructuras auto-similares a cualquier escala de observación.

La utilidad de los fractales es tal que campos como la Geología, Biología o Ingeniería la emplean para poder describir patrones naturales complejos. Los fractales permiten que se tenga un marco teórico en el desarrollo de simulaciones de fenómenos naturales.


Referencias:

Benoît Mandelbrot , (1967). 'How Long Is the Coast of Britain? Statistical Self-Similarity and Fractional Dimension'. en 'Science, New Series, Vol. 156, No. 3775. (May 5, 1967), pp. 636-638.

"Benoit Mandelbrot, el matemático que amplió el concepto de geometría", Gaussianos.

viernes, 15 de octubre de 2010

Blog Action Day 2010: El agua embotellada

El Blog Action Day es una oportunidad para que de manera global bloggers alrededor de todo el mundo discutan en torno a un tema en común con la finalidad de despertar y crear una conciencia. El tema de este año es el agua y basandose en tal premisa he aquí mi aportación.

Agua embotellada


Si bien es cierto que se ha estigmatizado a quienes beben agua embotellada, al considerarlos como los "nuevos fumadores", la realidad nos muestra el impacto negativo que tiene el consumo de tal producto. Basta saber que el plástico con que se elaboran las botellas tarda hasta 700 años en desintegrarse, cerca de un 80% del precio total rádica en el plástico, se requiren 100 millones de litros de petroleo tan solo para fabricar mil millones de botellas y peor aún el 80% de las botellas usadas no se reciclan.
Infografía publicada por TechBlog.


En TechBlog hace tiempo se publicó The Facts About Bottle Water, donde a manera de infografía publicaba datos interesantes sobre este problema:

  • El precio del agua embotellada puede ser hasta 10.000 veces más caro que el del agua de la llave.
  • El 40 por ciento del agua embotellada en realidad procede de fuentes municipales (lo que conocemos, que es el agua de la llave).
  • El 22 por ciento de las botellas contienen algún tipo de contaminante químico que esta más allá de los niveles permitidos.
  • Se emplean 17 millones de barriles de petróleo anualmente para fabricar botellas de plástico de agua, con lo que se podría producir al menos la cantidad de gasolina neesaria para mover un millón de coches durante un año.
  • Sólo una de cada cuatro botellas de plástico se recicla.

A manera de conclusión es necesario considerar alternativas viables al agua embotellada como puede ser el agua de la llave, que en ocasiones es más benefica, como lo relata la OMS.

Referencia:

Alvy, "Algunos datos sobre el agua embotellada", EcoMicrosiervos.

Petitions by Change.org|Start a Petition »

domingo, 10 de octubre de 2010

Ubuntu 10.10 Maverick Meerkat

Ubuntu 10.10 Maverick Meerkat
Ubuntu 10.10 cuyo nombre clave es "Maverick Meerkat" se encuentra disponible desde hoy. Esta nueva versión de Ubuntu esta basada en el kernel 2.6.35 e integra Gnome 2.32.

Proceso de instalación más simple

A la vez integra nuevas diapositivas que servirán para informar al usuario sobre las características con las que cuenta el sistema operativo.

Escritorio renovado

Se vuelven a integrar los temas Radiance y Ambiance, que ahora se han actualizado para poder tener un acceso más fluido al menú de aplicaciones. A la vez hay un nuevo papel tapiz.

Cambios en el software


Shotwell ha reemplazado a F-Spot como el administrador predeterminado de imágenes. Gwibber se ha actualizado para adaptarse a los cambios reciente en el sistema de autenticación en Twitter. El Indicador de audio posee ahora controles multimedias.

El Centro de Software Ubuntu tiene una imagen renovada, incluyendo las nuevas opciones "Destacado" y "¿Qué hay de nuevo?", una descripción del paquete a instalar y una categoría para compra de programas ha sido agregada.

Nueva tipografía

El equipo gráfico de Ubuntu desarroló una nueva fuente que sea a ala vez sencilla, elegante y resulte fácil su lectura. Tal parece que lo han conseguido.

Soporte de formato de archivos btrfs

El formato de archivos btfrs, que se estima en futuro próximo remplace a Ext4, aparecido en 2007 pretende ser un sistema de archivos centrado en fallos, reparación y una fácil administración.

Soporte de aceleración por hardware


Mediante OpenCL que en un inicio estaba enfocado a Nvidia es posible lograr un desempeño gráfico mayor mediante renderizado de imágenes usando el hardware.

Otras versiones

Kubuntu estará disponible con la versión 4.5.1 de KDE, integrando el Plasma Netbook. También poseerá nuevas aplicaciones bluetooth llamada Bluedevil y el navegador Rekonq.

Xubuntu sera actualizado a la versión 4.6.2 de xfce. Parole será el nuevo reproductor multimedia sustituyendo a Totem, Xfburn en lugar de Brasero.

Edubuntu incluira Gnome Nanny para controles parentales y nuevos temas gráficos. El modo OEM sera disponible.

Ubuntu Studio tendra actualización en programas. Contando con una mejor integración con Pulse Audio y con Jack.

viernes, 8 de octubre de 2010

La expansión del Homo sapiens

Expansión del Homo Sapiens. Créditos: NY Times.
La aparición y expansión del Homo sapiens es uno de los temas más interesantes y con más estudios dentro de la paleoantropología. Sabemos que como especie inició nuestra evolución en África hace al menos 200 mil años (Omo), y que hace 130 mil años atrás ya había poblaciones sapiens en Levante.

Pero los paleoantropólogos consideran que la expanción que hizó que la especie se esparciera por todo el planeta tuvo un inició hace unos 60 mil años. En Australia se han encontrado restos que datan de por lo menos 45 mil años. Hay datos sobre cuando ocurrió pero aún no se tiene certeza completa sobre cuales fueron las rutas de migración.

Michael Petraglia y colegas publicaron en Annals of Human Biology un estudio donde se analiza y recoge evidencia genética y arqueológica recabada en la península arábiga y el subcontinente indio para recrear la ruta que siguió el Homo sapiens.

Tal ruta sería una de las consideradas por los paleoantropólogos: las costas del océano índico. De acuerdo a los autores del estudio la presencia sapiens en ambas regiones fue más temprana de lo que se cree actualmente, lo cual podría deberse a esa primera expansión sapiens a Levante ocurrida hace 130 mil años, de donde desapareció hace unos 70 mil años, debido a los cambios bruscos y drásticos en el clima.

Hasta ahora, se considera la ruta promovida por Paul Mellars, la cual considera una rápida expansión desde África hace 60 mil años, que siguió la ruta del sur, a través de las costas.

Petraglia y colegas tomando en cuenta la información recabada en Arabia y del sur de Asia. Consideran que la razón de que no haya restos humanos durante tal periodo pero si en Levante sugieren que la región pudo ser colonizada entre 130 y 70 mil años atrás, luego la siguiente expansión sería la África ocurrida hace 60 mil años. Esta hipótesis tiene consistencia con los restos de otros mamíferos hallados en la región, y también por los restos de herramientas líticas que se han encontrado en esa región.

Los restos fósiles de sapiens en el subcontinente indio no sido correctamente datados, el más antiguo del que se tiene una fecha segura es de hace unos 30 mil años, en la cueva Fa Hien. Sin embargo hay abundante material de tecnologías líticas, con una antigüedad de al menos unos 100 mil años atrás.

Pero tecnologías ya modernas se encuentran 78 mil años atrás en Jwalapuram, la que algunos autores relacionan con la tecnología sapiens africana. Tales poblaciones de India, incluso habrían sobrevivido a la super erupción de Toba hace 74 mil años.

Todo esto mostraría que la expansión sapiens no fue un suceso revolucionario, rápido, sino que habría sido gradual. Y que habría sido en tiempos del Paleolítico Medio, no con la tecnología del Paleolítico Superior, hace 60 mil años. Esta primera expansión habría sido desde el Levante, donde hay evidencias de poblaciones sapiens entre 130 y 70 mil años atrás.

Referencia:

Martín Cagliani, "La ruta de expansión del Homo sapiens", Mundo Neandertal.

Michael D. Petraglia et al, "Out of Africa: new hypotheses and evidence for the dispersal of Homo sapiens along the Indian Ocean rim", Annals of Human Biology.

martes, 5 de octubre de 2010

Premio Nobel de Física 2010 por estudios sobre el grafeno

Red de grafeno. Créditos: The Nobel Foundation.
Una delgada capa de carbón ordinario, de sólo un átomo de espesor, se encuentra detrás del Premio Nobel de este año en Física. Andre Geim y Novoselov Konstantin han demostrado que el carbono, en forma plana tiene propiedades excepcionales que se originan en el mundo notables de la física cuántica.

Lápiz, papel y cinta adhesiva 

El grafeno es una forma de carbono. Como material es completamente nuevo - no sólo el más delgado hasta ahora, sino también el más fuerte-. Como conductor de electricidad funciona tan bien como el cobre. Como conductor del calor supera a todos los materiales conocidos. Es casi totalmente transparente, sin embargo, es tan denso que ni siquiera el helio, el átomo más pequeño de gas, puede pasar a través de él. Siendo el carbono, la base de toda la vida conocida en la tierra, nos ha sorprendido una vez más.

El grafeno se compone de átomos de carbono unidos entre sí en una red plana - similar a una estructura de nido de abeja, pero que solo tiene un átomo de espesor. Un milímetro de grafito en realidad consiste de tres millones de capas de grafeno apiladas una encima de la otra. Las capas están débilmente unidas y son más simples para cortar y separar. Cualquier persona que ha escrito algo con un lápiz ordinario ha experimentado esto.

Geim y Novoselov extrajeron el grafeno de una pieza de grafito, tal y como se encuentra en los lápices ordinarios. Con cinta adhesiva se las arreglaron para obtener un copo de carbono con un espesor de tan sólo un átomo. Esto sucedió en un momento cuando muchos creían que era imposible que tales materiales cristalinos fueran estables.

Cuando la placa se coloca en el microscopio estándar se puede ver un arco iris de colores, similar a lo que se ve cuando se derrama aceite en agua, y así determinar el número de capas de grafeno en las escamas. El espesor de la capa subyacente de dióxido de silicio, a su vez, crucial para revelar el grafeno.


Un juego serio

Sin embargo, con el grafeno, los físicos pueden ahora estudiar una nueva clase de materiales de dos dimensiones con propiedades únicas. El grafeno hace posible, una experimentación que da nuevos giros a los fenómenos de la física cuántica. También una gran variedad de aplicaciones prácticas ahora parecen posible, incluida la creación de nuevos materiales y la fabricación de productos electrónicos innovadores. Transistores de grafeno se prevé sean sustancialmente más rápido que los transistores de silicio de hoy y den lugar a equipos más eficientes.

Dado que es prácticamente transparente y un buen conductor, el grafeno es adecuado para la producción de pantallas tactiles transparentes, paneles de luz e incluso las células solares.

Cuando se mezcla con plásticos, el grafeno puede convertirse en conductor de electricidad, haciéndose más resistentes al calor. Esta resistencia puede ser utilizado en nuevos materiales súper fuertes, que también son delgados, elásticos y ligeros. En el futuro, los satélites, aviones y automóviles pueden ser fabricados con nuevos materiales.

Los galardonados de este año han estado trabajando juntos durante mucho tiempo. Konstantin Novoselov, de 36 años, trabajó por primera vez con Andre Geim, de 51 años, como estudiante de doctorado en los Países Bajos. Ambos originalmente estudiaron y comenzaron su carrera como físicos en Rusia. Ahora ambos son profesores de la Universidad de Manchester.

Alegría es una de sus señas de identidad. Con los bloques de construcción que tienen a su disposición pueden crear algo nuevo, inclusive con sólo permitir que sus cerebros serpentear sin rumbo. Uno siempre aprende
algo en el proceso y, quién sabe, incluso se puede ganar un premio. Ese fue el caso hace siete años cuando se creó una super cinta adhesiva inspirada en el lagarto gecko con la capacidad de pegarse incluso a los más materiales más suave. Andre Geimm gano el premio Ig Nobel en el año 2000 por una rana levitando destinada a "Hacer reír a la gente primero y pensar en segundo lugar". Ahora, con el grafeno, Andre Geim y Novoselov Konstantin se han escrito en los anales de la ciencia.

lunes, 4 de octubre de 2010

Fertilización in vitro. Créditos: Nobel Foundation.
Robert Edwards es galardonado con el Premio Nobel de 2010 por el desarrollo de la fertilización in vitro (FIV). Sus logros han hecho posible tratar la infertilidad, una condición médica que afecta cerca del 10% de todas las parejas en todo el mundo.

Fue en la década de 1950, cuando Edwards tuvo la visión de que la FIV podría ser útil como tratamiento para la infertilidad. Su trabajo sistemático para lograr su objetivo, permitió el descubrimiento de los principios para la fertilización humana y tuvo éxito en lograr la fecundación de óvulos humanos en tubos de ensayo (o más precisamente, en platos de cultivo celular). Sus esfuerzos se vieron coronados por el éxito, cuando finalmente el 25 de julio de 1978, el primer "bebé probeta" nació. Durante los años siguientes, Edwards y sus colaboradores perfeccionaron la tecnología de fertilización in vitro y lo compartieron con colegas de todo el mundo.

Aproximadamente cuatro millones de personas hasta ahora han nacido empleando la FIV. Muchos de ellos son ahora adultos y algunos padres de familia se han vuelto padres de familia. Un nuevo campo de la medicina se ha convertido, con Robert Edwards quien ha dirigido el proceso hasta el final de los descubrimientos fundamentales para la terapia actual, el éxito de la FIV. Sus contribuciones representan un hito en el desarrollo de la medicina moderna.

Infertilidad - un problema médico y psicológico-

Más del 10% de todas las parejas en el mundo son infértiles. Para muchas de ellos, es motivo de una gran decepción y para algunas más causa de un trauma psicológico permanente. La medicina en el pasado tuvo pocas oportunidades de ayudar a estas personas. Hoy en día, la situación es totalmente diferente. La fertilización in vitro (FIV) es una terapia establecida cuando el esperma y el óvulo no pueden ser fecundados.

La investigación básica da frutos

El científico británico Robert Edwards comenzó su investigación fundamental sobre la biología de la fertilización en la década de 1950. Pronto se dio cuenta que la fecundación fuera del cuerpo podría representar un posible tratamiento de la infertilidad. Otros científicos habían demostrado previamente que los óvulos de conejos podían ser fertilizados en tubos de ensayo cuando el esperma se añadía, dando lugar a la descendencia. Edwards decidió investigar si métodos similares podrían ser utilizados para fertilizar células sexuales humanas.

Resultó que los células fecundadas humanas tienen un ciclo de vida completamente diferentes a los de los conejos. En una serie de estudios experimentales realizados junto con varios compañeros de trabaj, Edwards hizo una serie de descubrimientos fundamentales. Aclaró que los óvulos humanos adultos, son regulados por diferentes hormonas para su maduración, y el momento en el que los óvulos son susceptibles para la fertilización mediante espermatozoides. También determinó que las condiciones en que los espermatozoides se activan y tienen la capacidad de fertilizar el óvulo. En 1969, sus esfuerzos se vieron convertidos en éxito cuando, por primera vez, un óvulo humano fue  fertilizado en un tubo de ensayo.

A pesar de este éxito, un gran problema se mantuvo. El óvulo fertilizado no se desarrolló más allá de una simple división celular. Edwards sospecho que los óvulos que habían madurado en los ovarios antes de que se retiraron para la FIV podría funcionar mejor, y busco las posibles formas de obtener tales células de una manera segura.

De experimentos a la medicina clínica 

Edwards contacto al ginecólogo Patrick Steptoe. Steptoe se convirtió en el médico que, junto con Edwards, desarrollaron la FIV de la fase experimental a la medicina práctica. Patrick fue uno de los pioneros en la laparoscopia, una técnica que fue nueva y polémica en su momento, esta técnica permite la inspección de los ovarios a través de un instrumento óptico. Steptoe utilizo el laparoscopio para extraer óvulos de los ovarios y Edwards coloca los óvulos en el cultivo celular y añadía esperma. Los óvulos fertilizados ahora se dividían en varias ocasiones y formaban embriones tempranos.

Estos primeros resultados fueron prometedores, pero el Consejo de Investigación Médica decidió no financiar la continuación del proyecto. Sin embargo, una donación privada permitió que el trabajo continuara. La investigación también se convirtió en el tema de un acalorado debate ético que se inició por el propio Edwards. Varios líderes religiosos, éticos y científicos exigieron que el proyecto se detuviera, mientras que otros le dieron su apoyo.

El nacimiento de Louise Brown - un acontecimiento histórico

Una nueva donación permitió que el trabajo de Edwards y Steptoe siguiera. Al analizar los niveles de hormonas de los pacientes, se podía determinar el mejor momento para la fertilización y maximizar las posibilidades de éxito. En 1978, Lesley y John Brown visitaron la clínica después de nueve años de intentos fallidos para tener un hijo. El tratamiento de fecundación in vitro se llevó a cabo, y cuando el huevo fertilizado se había convertido en un embrión de 8 células, se coloca en la señora Brown. Un bebé sano, Louise Brown, nació por cesárea, el 25 de julio de 1978. La FIV se había movido de la ficción a la realidad y una nueva era en la medicina había comenzado.

La FIV se perfecciona y se propaga a todo el mundo

Edwards y Steptoe establecieron la Clínica Bourn Hall, en Cambridge, el primer centro del mundo para el tratamiento de FIV. Steptoe fue su director médico hasta su muerte en 1988, y Edwards estuvo dirigiendo la investigación hasta su jubilación. Ginecólogos y biólogos celulares de todo el mundo se han especializado en Bourn Hall, donde los métodos de fecundación in vitro se perfeccionan continuamente. Hasta 1986, 1,000 niños habían sido ya nacidos mediante la FIV en Bourn Hall, lo que representa aproximadamente la mitad de todos los niños nacidos en el mundo en ese momento.

Hoy en día, la FIV es un tratamiento establecido en todo el mundo. Ha sufrido varias mejoras importantes. Por ejemplo, los espermatozoides puede ser microinyectados directamente en el óvulo en la placa de cultivo. Este método ha mejorado el tratamiento de la infertilidad masculina por FIV. Además, los óvulos maduros adecuados para la FIV puede ser identificados por ecografía y se retiran con una jeringa de multa en vez del laparoscopio. La FIV es un tratamiento seguro y eficaz. De 20 a 30% de los huevos fecundados finalizan en el nacimiento de un niño. Las complicaciones incluyen nacimientos prematuros, pero son muy raros, sobre todo cuando un huevo sólo se inserta en la madre. A largo plazo los estudios de seguimiento han demostrado que los niños de FIV son tan sanos como los demás niños. Aproximadamente cuatro millones de personas han nacido gracias a la FIV. Louise Brown y otros niños probeta han sido padres, lo que es probablemente la mejor evidencia de la seguridad y el éxito del tratamiento de FIV. Hoy en día, la visión de Robert Edwards es una realidad y trae alegría a las personas infértiles en todo el mundo.

Robert G. Edwards nació en 1925 en Manchester, Inglaterra. Después del servicio militar en la Segunda Guerra Mundial, estudió biología en la Universidad de Gales en Bangor y la Universidad de Edimburgo en Escocia, donde recibió su doctorado en 1955 con una tesis sobre el desarrollo embrionario en ratones. Se convirtió en un científico del Instituto Nacional de Investigación Médica en Londres en 1958 e inició su investigación sobre el proceso de fecundación humana. Desde 1963, Edwards trabaja en Cambridge, primero en su universidad y más tarde en la Clínica Bourn Hall, primer centro mundial de la FIV, que fundó junto con Patrick Steptoe. Edwards fue director de investigación y también editor de varias revistas científicas líderes en el área de la fertilización. Robert Edwards es actualmente profesor emérito en la Universidad de Cambridge.

La paradoja de escuchar

Un fascinante trabajo en Psychological Science explora una aparente paradoja de escucha: Es más difícil no escuchar una conversación cuando alguien está hablando en el teléfono (sólo oímos un lado del diálogo) que cuando dos personas presentes físicamente hablan uno frente a otro. Aunque la conversación telefónica contiene mucha menos información, tenemos una mayor curiosidad por lo que se dice. Vamos a llamar a este efecto "el tipo molesto". Él es el último hombre en la tierra que queremos escuchar, y sin embargo, es imposible de ignorar.

¿Cómo se explica "El efecto chico molesto"? La respuesta nos devuelve a la naturaleza del tratamiento de la información, y la forma perversa en que el cerebro asigna nuestra atención. Como se señalo al hablar sobre la curiosidad, al cerebro le fascinan las lagunas de información. (Esto se conoce como la "brecha de información", fue descrita por primera vez por George Loewenstein en los años 90.) En este nuevo estudio, los psicólogos de Cornell se basan en el "vacío de información" del modelo. Se demostró, por ejemplo, que los sujetos al escuchar un solo lado de una conversación - lo que sería un vacío - había una disminución del rendimiento en una variedad de tareas cognitivas que requieren toda la atención. En un segundo experimento, los investigadores confirmaron que se trata de la "naturaleza impredecible" del efecto que lo hace tan atractivo. Porque no sabemos sobre que es la conversación, o hacia dónde se dirige, pero no podemos dejar de escuchar. Nuestra atención es aspirado por la incertidumbre de las palabras.

Este efecto no sólo se aplica a las casi siempre desagradables conversaciones por teléfono celular. En Proust  un neurólogo, discute cómo el mismo concepto también puede explicar el atractivo de la música:

Antes de que un patrón musical puede ser deseado por el cerebro, se juzga lo díficil que es conseguirlo. Música sólo nos excita cuando provoca una lucha en la corteza auditiva para descubrir su orden. Si la música es demasiado obvia, si sus patrones siempre están presentes, resulta molesta y aburrida. (Piense en un reloj de alarma, que es un campo de juego perfectamente predecible en el tiempo perfecto. No es tan agradable). Esta es la razón por la cual compositores introducen la nota tónica en el comienzo de la canción y luego la evitan hasta el final. Cuanto más tiempo se nos niega el patrón que esperamos, es mayor la descarga emocional cuando vuelve el patrón. Hay una alegría en la corteza auditiva.

Para demostrar este principio psicológico, el musicólogo Leonardo Meyer, en su libro "La emoción y el significado de Música" (1956), analizó el movimiento º 5 de Beethoven interpretado por un Cuarteto de Cuerdas en Do sostenido. Meyer quería mostrar cómo la música se define por nuestras expectativas de orden. Se tomaron cincuenta medidas de la obra maestra de Beethoven, mostrando cómo Beethoven comienza con la declaración clara de un patrón rítmico y armónico y, a continuación, en un baile de tonos complejos, que evita cuidadosamente repetir. ¿Qué hace Beethoven en lugar de indicar las variaciones del patrón? Es su sombra evasiva. Si Mi mayor es la tónica, Beethoven jugará versiones incompletas del acorde de Mi mayor, siempre atento para evitar su expresión directa. Él quiere preservar un elemento de incertidumbre en su música, lo que hace nuestro cerebro solicite lo que él se niega a darnos. Beethoven guarda ese acorde para el final.

Según Meyer, la tensión de suspenso de la música (que surge de nuestras expectativas no cumplidas) es la fuente del sentimiento de la música. Mientras que las teorías anteriores de la música se centraban en la forma en que el ruido puede hacer referencia al mundo real de las imágenes y experiencias (su "connotación", es decir), Meyer sostuvo que las emociones que nos encontramos en la música vienen desde el desarrollo de los acontecimientos de la propia música. Este consagrado surge de los patrones que la sinfonía invoca y hace caso omiso, de la ambigüedad que crea dentro de su propia forma. "Para la mente humana", escribe Meyer, "tales estados de la duda y la confusión son abominables. Cuando nos enfrentamos a ellos, la mente intenta resolver con claridad y certeza". Y lo que espera, expectante, para la resolución de las principales, para que el patrón establecido de Beethoven sea completado". Esta anticipación nerviosa, dice Meyer, "es la razón de ser de todo el pasaje, su propósito es, precisamente, retrasar la cadencia en la tónica". La incertidumbre hace el sentimiento. La música es una forma cuyo significado depende de su incertidumbre.

En otras palabras, escuchando a Beethoven es la forma artística de un vacío - se trata de un estímulo sensorial que nos atrae precisamente por lo que no nos dice. La información es incompleta - no sabemos cuándo, exactamente, la tónica volverá - por lo que se espera con impaciencia la conclusión. Meyer posteriormente aplica este principio a todas las narraciones. Señaló, por ejemplo, que el momento de mayor suspenso en una película es también el momento de máxima incertidumbre. Estamos clavados porque no tenemos idea de lo que sucederá después.

Refererencia:


Jonah Lehrer, "The Science of Eavesdropping", Wired.

viernes, 1 de octubre de 2010

El Gran Colisionador de Hadrones detecta un sutil efecto

Imagen de una colisión de 7 TeV protón-protón en el caso CMS producir más de 100 partículas cargadas. Créditos: CERN/CMS.
Después de casi 6 meses de experimentos, el Gran Colisionador de Hadrones se ha encontrado con indicios de algo completamente nuevo. Los pares de partículas cargadas que se producen cuando dos haces de protones chocan parecen estar asociados entre sí, incluso después de que choquen.

"Es un pequeño efecto, pero es muy interesante en sí mismo", expresa el físico Guido Tonelli , portavoz de los experimentos en el CMS. Tonelli y sus colegas anunciaron los resultados en un seminario del CERN en septiembre y en un documento presentado a la Revista Journal of High Energy Physics.

El LHC fue puesto en marcha de nuevo en marzo, tras más de un año de intentos fallidos. Desde entonces haces de protones han colisionado en el anillo de 17 kilómetros de longitud a energías de 7 teraelectronvoltios (TeV) - tres veces la energía que se había logrado antes.

Cuando colisionan dos protones, que producen una ráfaga más pequeña, de partículas cargadas de corta vida que vuelan lejos unas de otros en ciertos ángulos y velocidades. El experimento CMS (Compact Muon Solenoid) en el LHC detecta la ruta de cada una de estas partículas tiene. Los físicos pueden entonces utilizar las pistas para reconstruir lo que sucedió en el centro de la colisión, como volver a unir los fragmentos de vidrio de una ventana rota.

En el nuevo experimento , el equipo de CMS tomó datos sobre las partículas cargadas producidas en cientos de miles de colisiones. El equipo observó los ángulos de las trayectorias de las partículas que tomaban con respecto a las otras, y mediante algo llamado "función de correlación" determina cómo las partículas se encuentran íntimamente vinculadas después de la separación. La trama de los datos termina pareciéndose a un mapa topográfico de una montaña rodeada de tierras bajas y una larga cresta detrás de él.

Las funciones de correlación para "mínimo sesgo" colisiones (a la izquierda) y las colisiones que produjeron al menos 110 partículas cargadas (derecha), el canto nuevo se indica con una flecha. Crédito: CERN/CMS.

En el caso más básico (imagen de la izquierda), los datos eran exactamente como los físicos esperaban que sucediera. Pero hay casos en que por lo menos 110 partículas cargadas en las cuales el equipo observaba una estructura parecida a un canto -que se extiende desde el pico de la montaña (imagen de la derecha).

La cresta significa esencialmente que las partículas en algunos pares están moviendose más lejos cerca de la velocidad de la luz a lo largo de un eje, pero que se orientan a lo largo del mismo ángulo en el otro eje.

Es como si dos partículas interactuaran de alguna manera la una del otro desde que se produjeron. Este fenómeno nunca se ha visto antes en colisiones protón-protón, aunque se asemeja a algo que se ve en el RHIC (Colisionador de Iones Pesados) en el Brookhaven National Laboratory de Nueva York. Este efecto fue interpretado como la creación de materia caliente densa poco después de las colisiones.

El equipo de CMS reunió datos a mediados de julio y pasó el resto del verano tratando de encontrar un un error o manipulación de los datos.

"Estamos aquí hoy porque no logró acabar con él", comenta Tonelli. Por lo que el equipo puede decir, que el efecto es real.

Pero de dónde viene, nadie lo sabe. Hay una gran cantidad de explicaciones posibles, y el equipo no está listo para elegir una por el momento.

"Este es un efecto sutil y se requiere cuidadoso trabajo para establecer su origen físico", dijo el físico del MIT Gunther Roland en el seminario en el CERN.

Referencia:

Lisa Grossman, "LHC Detects Evidence of New Physics", Wired.

Related Posts Plugin for WordPress, Blogger...