Al absorber la luz del sol, la clorofila – un pigmento vegetal – obra el milagro de reverdecer cada año los nuevos brotes y permitir la vida en nuestro planeta. Pero no sólo las plantas son verdes; muchos animales adoptan ese color con sabios propósitos ...

La clorofila es un pigmento o compuesto fotosensible que se encuentra en los vegetales y – aunque en cantidades ínfimas – también en ciertos animales como algunos insectos que la acumulan, porque no la digieren.


En efecto, la clorofila es un compuesto químico fundamental, una molécula captadora de energía imprescindible para la vida de muy distintos tipos de seres que pueblan el planeta, y vital para las plantas. Esta molécula se encuentra localizada en los cloroplastos de las células vegetales, unas minúsculas centrales energéticas que el sol activa. A primera vista la molécula de clorofila resulta muy compleja: un anillo central, compuesto por un núcleo de magnesio, rodeado por anillos de nitrógeno y carbono.



Pero lo verdaderamente importante de la clorofila es que su concurso hace posible la fotosíntesis, la reacción química que consigue transformar el dióxido de carbono y el agua en alimento; es decir, en materia orgánica como proteínas, glúcidos y lípidos que sirve de nutrición. En esta tarea de síntesis, la luz del sol que es absorbida juega el papel más importante. En su fuente externa de energía, sin la cual ese proceso nutritivo no tendría lugar.


Todos los seres vivos del planeta están formados por carbono, pero nuestra única forma de adquirirlo es a través del dióxido de carbono que se encuentra en la atmósfera. Es precisamente la fotosíntesis la que hace posible que este gas tan vital se incorpore al mundo viviente. Se estima que en el proceso fotosintético se emplean anualmente unos 200.000 millones de toneladas de dióxido de carbono, volumen lo suficientemente grande para su contenido en la atmósfera se extinguiera en pocos meses, y en el océano en 300 años, si no fuera por la fotosíntesis. Este sapientísimo proceso tiene previsto su repuesto, a través de la respiración vegetal y animal, que devuelve el dióxido de carbono al ambiente. El equilibrio en el ciclo del carbono garantiza, pues, la existencia de todos los seres vivos sobre la faz de la Tierra.


A vista de la importancia de la fotosíntesis, y en última instancia de la clorofila, que participa como activadora en el proceso, ¿quién va a negar la trascendencia del color verde? Pero verdes a muchos, dependiendo de las diversas clorofilas, que las hay distintas, así como de la proporción del pigmento que dispone la planta. Aun se advierte un cambio cromático sustancial en todo el follaje verde en determinadas épocas del año. La producción y mantenimiento de la clorofila depende de su exposición a la luz. Por eso, ningún brote joven reverdece hasta que ha crecido por encima del suelo y las plantas pierden su color cuando se cultivan en una cámara oscura. . Durante el otoño la clorofila de las hojas caducifolias se descompone incluso en presencia de la luz, dejando a la vista otros pigmentos que el resto del año ha enmascarado.



Verde que te quiero verde para las plantas. Es su color obvio, obligado. Pero, ¿y en los animales? Sin duda, no es inherente a ellos, pero también son aficionados a él, aunque no por puro capricho. El color es algo muy serio en el mundo animal.


Los insectos, por ejemplo, exhiben el color verde como medio de atracción y comunicación. Pero también les sirve de camuflaje. Es el caso de los célebres insectos palo o los insectos hoja. Otro insecto verde, la mantis religiosa, emplea también disfraces para acercarse o dejar que sus presas se le aproximen.


Los anfibios se visten de verde con la misma finalidad de camuflarse. Maestra en ese arte del mimetismo es la ranita de San Antonio (Hyla arborea).



Subiendo otro peldaño en la escala evolutiva, los reptiles no se privan del verde bajo ningún concepto. Diríase que es su color preferido, quizá por que su condición reptante les obliga a integrarse en el paisaje del suelo por el que se deslizan.


El verde reviste una importancia considerable en las aves, tanto en los llamativos plumajes perennes como en los vistosísimos esmeraldas que exhiben algunas especies exóticas. Sin duda, el mayor prodigio de cromatismo es el que ofrece la majestuosa cola en abanico del pavo real, cuyas plumas posee un ocelo verde cada una.


Los mamífero, sin embargo, apenas hacen uso de este color. En vez de la clorofila como en las plantas, otra sustancia química – la melanina – es el pigmento que predomina para darnos tinte. Por eso no existe, ni puede existir el famoso perro verde. En el mamífero lo único que pueden ser verdes son los ojos. Especialmente bellos son los de los felinos. Sobre todo los del mítico lince ibérico(Lynx pardina), o los del lobo cerval.


Hablar de verde está de moda. Verde es, por así decirlo, sinónimo de naturaleza, de ecología. Hoy abundan en medio mundo los partidos que se llaman verdes. ¡Qué ironía que proliferen a medida que la Tierra va perdiendo tan genuina y bella tonalidad! Ya hay quien ha pronosticado cual será el color del cambio: el amarillo que se corresponde con el tono del desierto. Pero, seamos honestos, el amarillo es también un color propio de la naturaleza, que no siempre ha de implicar tipo alguno de deterioro medioambiental.



Vivimos en la era de la ciencia. Pero no sólo los científicos intentan atraer la atención de la gente. Las religiones y corrientes filosóficas compiten con ella, afirmando que pueden ofrecer una imagen del mundo mejor y más completa. En su fuerte concurrencia con otros sistemas de ideas, la reivindicación de la ciencia tiene gran importancia, porque ella se ocupa de la verdad, y toda teoría científica sólo se mantiene en pie cuando es demostrable experimentalmente.


Pero esta imagen de la ciencia es una idealización. Los resultados científicos sólo pueden ser reflejo exacto y objetivo del mundo real en teoría. En la práctica, hace ya mucho tiempo que la naturaleza de la verdad científica no es tan unívoca. Siempre nos encontramos con un “sí, pero”. La base del método científico es la gestación de una teoría. Por su propia naturaleza, las teorías científicas son modelos del mundo real y gran parte del léxico y vocabulario científico está relacionado con tales modelos, pero no con la realidad. Por ejemplo, los científicos utilizan con frecuencia la palabra “descubrimiento”, cuando quieren decir sólo que un teórico ha perfeccionado un modelo.


Cuando los hombres comenzaron a impulsar la ciencia se basaron en su sentido común. Naturalmente, desarrollaron métodos y sistemas para descartar errores. Sin embargo, cuando se trataba de desarrollar teorías, tomaban el mundo tal como éste aparecía ante su sentido común.


Las teorías intentan describir la realidad, pero ellas mismo no son la realidad. No obstante, mientras los modelos científicos estén estrechamente relacionados con la experiencia directa; mientras nuestra razón continúe siendo una guía fiable, nos sentimos muy seguros de poder distinguir entre el modelo y la realidad.


En general puede decirse que cuanto más se aleja la ciencia de la razón normal, tanto más difícil resulta distinguir qué es sólo un modelo teórico y qué una descripción correcta de la realidad.


Si echamos un vistazo a la historia de la ciencia, comprobaremos que la naturaleza tiene la desagradable costumbre de engañar una y otra vez al hombre, de modo que éste confunde lo realmente existente con sus propias imaginaciones. Los investigadores se han dejado embaucar una y otra vez por el hecho de que confundían su impresión sobre una cosa con esa misma cosa. La historia de la teoría de la evolución está plagada de tales errores. Piénsese sólo en cuán plausible parecía de entrada la teoría del investigador francés Jean Lamarck, de que los seres vivos pueden heredar nuevas aptitudes. En lugar de ello, se demuestra, tal como observó acertadamente Darwin, que la herencia genética varía casualmente de una a otra generación y que es la selección natural la que se encarga de la constante adaptación y perfeccionamiento, así como el lento proceso de la evolución.


¿Por qué ocurren con tanta frecuencia tales confusiones? El filósofo Thomas Khun cree que los científicos desarrollan determinadas convicciones a las que se aferran rígidamente hasta que resulta evidente que se trata de absurdos.


Estos modelos o paradigmas ayudan a dar forma a las teorías científicas, por lo que su influencia sobre los métodos científicos y, por lo tanto, también sobre las conclusiones que se sacan de los experimentos es muy grande. Los investigadores empíricos se jactan de su objetividad. Sin embargo, suelen cometer con frecuencia el error de interconectar datos, un poco sin saber por qué, sin una clara intención, hasta que coinciden con sus ideas preconcebidas. A veces sucede que varios expertos realizan de forma independiente la misma medición y todos llegan al mismo resultado equivocado, pero que todos estaban esperando.


Hay científicos que ven algo que realmente no está ahí, pero otros en cambio, no ven otras cosas que ciertamente están delante de ellos.


Se han mencionado también los esquemas mentales por los que los investigadores se dejan guiar conscientemente o inconscientemente: los paradigmas. Cuando en la ciencia se produce algún cambio de paradigma, es decir, cuando una tendencia en las ideas es sustituida por otra diferente, se suelen desencadenar acaloradas discusiones. Hay también personas obstinadas en entender la realidad sólo con su inteligencia y sentido común. Por eso luchan incluso contra las ideas generalmente aceptadas. Por ejemplo con las teorías de la Nueva Física. La Teoría de la Relatividad de Einstein atrae especial inquina. Al cabo de 90 años de su publicación, las redacciones de las revistas científicas están desbordadas por manuscritos, cuyos autores intentan todavía demostrar algún tipo de error de Einstein, a fin de poder regresar al antiguo mundo, tan seguro del espacio y tiempo absolutos, devolviendo su constancia al parámetro tiempo.


Tras estos ataques se esconde normalmente el sentimiento de que el mundo no puede ser como Einstein dice. Porque, toda teoría que quiera ser cierta tiene que ser también sencilla y comprensible.


Cierto es que la relación entre modelos abstractos y realidad es difícil. Sin embargo, no por eso ha de encubrirse la exigencia de que la ciencia busque la verdad.


Pero, ¿puede descubrirse toda la verdad con ayuda de la ciencia? Hay muchos científicos que rechazan la idea de que la ciencia lo pueda aclarar todo. La ciencia alcanza logros extraordinario cuando se trata de explicar los electrones o la larga molécula de ADN, pero sus posibilidades son limitadas cuando se trata del amor, la moral o el sentido de la vida. Porque, aunque estas experiencias son parte de la realidad, no forman parte de la ciencia pura.


Ahora bien, puede ser precisamente esta circunstancia la culpable de la corriente anticientífica que hoy se observa en la sociedad occidental. Porque, si la ciencia no puede contestarnos a estas cuestiones, ¿para qué sirve entonces?. Semejante postura encierra el peligro de que la sociedad se aleje de la ciencia y se incline por otros sistemas de pensamiento, que se apoyan más en el dogma que en la experiencia. Todavía es peor la creciente tendencia a continuar utilizando la ciencia como procedimiento, pero distorsionándola y manipulándola hasta acomodarla a convicciones preconcebidas. Por eso, expongamos con claridad que sólo existe “la” ciencia, y que ésta se ocupa de la verdad, no de los dogmas. Añadamos que esta verdad posiblemente es limitada y apenas si puede satisfacer el ansia de muchas personas de lograr la comprensión definitiva de las cosas. Una meta quizá inalcanzable para nuestro inquietos cerebros.


"Tenemos al gato de Schrödinger sano y salvo. No, espera…"

Cuando se habla de el "gato de Schrödinger" se está haciendo referencia a una paradoja que surge de un célebre experimento imaginario propuesto por Erwin Schrödinger en el año 1937 para ilustrar las diferencias entre interacción y medida en el campo de la mecánica cuántica.


El experimento mental consiste en imaginar a un gato metido dentro de una caja que también contiene un curioso y peligroso dispositivo. Este dispositivo está formado por una ampolla de vidrio que contiene un veneno muy volátil y por un martillo sujeto sobre la ampolla de forma que si cae sobre ella la rompe y se escapa el veneno con lo que el gato moriría. El martillo está conectado a un mecanismo detector de partículas alfa; si llega una partícula alfa el martillo cae rompiendo la ampolla con lo que el gato muere, por el contrario, si no llega no ocurre nada y el gato continua vivo.


Cuando todo el dispositivo está preparado, se realiza el experimento. Al lado del detector se sitúa un átomo radiactivo con unas determinadas características: tiene un 50% de probabilidades de emitir una partícula alfa en una hora. Evidentemente, al cabo de una hora habrá ocurrido uno de los dos sucesos posibles: el átomo ha emitido una partícula alfa o no la ha emitido (la probabilidad de que ocurra una cosa o la otra es la misma). Como resultado de la interacción, en el interior de la caja, el gato está vivo o está muerto. Pero no podemos saberlo si no la abrimos para comprobarlo.




Si lo que ocurre en el interior de la caja lo intentamos describir aplicando las leyes de la mecánica cuántica, llegamos a una conclusión muy extraña. El gato vendrá descrito por una función de onda extremadamente compleja resultado de la superposición de dos estados combinados al cincuenta por ciento: "gato vivo" y "gato muerto". Es decir, aplicando el formalismo cuántico, el gato estaría a la vez vivo y muerto; se trataría de dos estados indistinguibles.


La única forma de averiguar qué ha ocurrido con el gato es realizar una medida: abrir la caja y mirar dentro. En unos casos nos encontraremos al gato vivo y en otros muerto. Pero, ¿qué ha ocurrido? Al realizar la medida, el observador interactúa con el sistema y lo altera, rompe la superposición de estados y el sistema se decanta por uno de sus dos estados posibles.


El sentido común nos indica que el gato no puede estar vivo y muerto a la vez. Pero la mecánica cuántica dice que mientras nadie mire en el interior de la caja el gato se encuentra en una superposición de los dos estados: vivo y muerto.


Esta superposición de estados es una consecuencia de la naturaleza ondulatoria de la materia y su aplicación a la descripción mecanocuántica de los sistemas físicos, lo que permite explicar el comportamiento de las partículas elementales y de los átomos. La aplicación a sistemas macroscópicos como el gato o, incluso, si así se prefiere, cualquier profesor de física, nos llevaría a la paradoja que nos propone Schrödinger.


En algunos libros modernos de física, para colaborar en la lucha por los derechos de los animales, en el dispositivo experimental (por supuesto, hipotético) se sustituye la ampolla de veneno por una botella de leche que al volcarse o romperse permite que el gato pueda beber. Los dos estados posibles ahora son: "gato bien alimentado" o "gato hambriento". Lo que también tiene su punto de crueldad.

Seguramente de pequeño has jugado alguna vez al juego de las 20 preguntas, ya sabes, uno piensa en un objeto y otro trata de adivinarlo haciendo preguntas a las que sólo se puede responder “sí” o “no”. Si lo adivinas con un máximo de 20 preguntas has ganado.

20Q es una versión web de este juego utilizando inteligencia artificial. En este caso, tu compañero de juegos es virtual, piensas en un objeto y será el ordenador quien debe adivinar el objeto mediante preguntas. Si el ordenador consigue adivinarlo con un máximo de 20 preguntas, ha ganado. Si necesita más de 20 preguntas, habrás vencido al ordenador. La dirección para jugar online es : http://www.20q.net/


Si has estado jugando con 20Q seguro que te estarás preguntando ¿Cómo es posible?. Puedo asegurarte que no es un truco de magia, es inteligencia artificial.


Habrás oído hablar muchas veces de inteligencia artificial, pero ¿Qué es inteligencia artificial? La inteligencia artificial no es algo nuevo. Este término tiene su origen en 1956 y podríamos definirlo como “la ciencia que se encarga del estudio de las facultades mentales mediante el uso de modelos computacionales”.


20Q es, en realidad, una aplicación basada en una red neuronal artificial, que es una de las ramas de estudio de la inteligencia artificial. Si comprendemos el funcionamiento de una red neuronal, comprenderemos el funcionamiento de 20Q.


Las redes neuronales son un modelo de aprendizaje y procesamiento de información automático inspirado en el sistema nervioso biológico.



Los cerebros humanos están compuestos por decenas de billones de neuronas conectadas mediante sinopsis, estas conexiones pueden intensificarse o atenuarse dependiendo de una serie de factores. La neurona, dependiendo del estado global de sus conexiones, toma un nivel de activación. Luego, propagará esta información a todas las neuronas con las que esté conectada.



En las redes neuronales artificiales las neuronas se modelan mediante unidades de proceso, que están unidas mediante conexiones ponderadas. Cada conexión tiene un peso asociado, que equivale a la fuerza de la conexión. La función de red es la encargada de calcular la entrada global, que generalmente se calcula mediante una suma ponderada de todas las entradas recibidas. La función de activación, generalmente más compleja que la función de red, se encarga de determinar el nivel de activación basándose en la entrada global. Este valor de activación será el que se transmitirá a todas las unidades con las que esté conectada.



Para diseñar una red neuronal artificial debemos establecer las conexiones entre unidades y los pesos de estas. Lo normal es tener
unidades en forma de capas: una capa de entrada, que actuará como buffer de entrada; una capa de salida, que actuará como buffer de salida y capas ocultas que serán las encargadas de extraer, procesar y memorizar la información.


Una de las características más importantes de las redes neuronales es el aprendizaje. El aprendizaje en las redes neuronales biológicas se produce mediante el ajuste de la efectividad de la sinopsis, de esta manera cambia la influencia que unas neuronas ejercen sobre otras. En las redes neuronales artificiales el aprendizaje consiste en el ajuste de los pesos en las conexiones.


Inicialmente, habremos establecido unos pesos para las conexiones de nuestra red neuronal artificial, pero a través de entrenamiento podemos conseguir que estos pesos cambien. En nuestro caso, entrenamos a 20Q cada vez que jugamos. Si para el mismo objeto repetidas veces obtiene la misma respuesta, esa conexión se irá reforzando y terminará reconociendo esa respuesta como válida. Por esta razón, cuando hemos acabado el juego nos dice las contradicciones que ha encontrado, mostrando para esa pregunta la respuesta que tiene más peso hasta el momento (que no coincide con lo que nosotros hemos contestado). Sin embargo, nuestra respuesta ha contribuido a aumentar el peso de esa respuesta.

La cultura popular sostiene que el agua siempre gira en un sentido en los desagües situados en el hemisferio norte de la Tierra y en el sentido contrario en el hemisferio sur a causa de la fuerza de Coriolis, pero esta es en realidad varios órdenes de magnitud más débil que otras fuerzas que influyen en el sentido de esa rotación como pueden ser la propia geometría del lavabo, inodoro o bañera que se están vaciando, si están completamente planos o algo inclinados, la dirección en la que se añadió el agua originalmente, o incluso los pequeños vórtices que pueden haber quedado en el agua como resultado de lavarse las manos en ella o que pueden haber sido causados por pequeñas irregularidades en la superficie de la pieza que se está vaciando.


Puedes hacer la prueba llenando y vaciando piletas, bidés, fregaderos y similares en tu casa. Verás que en algunos el agua siempre gira en un sentido determinado -en especial si el grifo está descentrado- pero en otros unas veces girará para un lado y otras para otro; incluso es fácil modificar el sentido de giro si previamente remueves un poco el agua con tu mano.

Según las nuevas teorías el Universo puede haber sido creado a partir de unas cuerdas cósmicas: hilos invisibles más delgados que un átomo, terriblemente energéticos – pues la energía del Big Bang está en su interior – y desconcertantemente excéntricos en su comportamiento. Los hilos estarían repartidos de modo disperso, como una madeja de hilo desenrollado a lo largo y ancho del cosmos, y se moverían a una velocidad cercana a la luz.


Desde la década de los sesenta, cuando empezó la fiebre de los agujeros negros, ningún objeto astronómico ha sorprendido e intrigado tanto. Las cuerdas cósmicas logran explicar como pudieron millones de galaxia surgir del plasma primitivo del Big Bang.



Una de las virtudes de esta teoría es que puede observarse por la observación. Aunque las cuerdas en sí son invisibles, sus efectos no tienen por qué serlo. La idea de las supercuerdas nació de la física de partículas, más que en el campo de la cosmología (a pesar del nombre, la cuerdas cósmicas no tienen nada que ver con la teoría de las “supercuerdas”, que mantiene que las partículas elementales tienen forma de cuerda). Surgió en la década de los sesenta cuando los físicos comenzaron a entrelazar las tres fuerzas no gravitacionales – electromagnetismo y fuerzas nucleares fuertes y débiles – en una teoría unificada.


En 1976, el concepto de las cuerdas se había hecho un poco más tangible, gracias a Tom Kibble. Kibble estudiaba las consecuencias cosmológicas de las grande teorías unificadas. Estaba particularmente interesado en las condiciones del 10^-35 segundo después del Big Bang, cuando las temperaturas en el cosmos embrionario bajaron más de billones de billones de grados. Ese fue el momento en que las fuerzas y las partículas se diferenciaron unas de otras.


A los cosmólogos les gusta visualizar esta revolucionaria transición como una especie de “cristalización”: el espacio, en un principio saturado de energía, cambió a la forma más vacía y más fría que rodea actualmente nuestro planeta. Pero la cristalización fue, probablemente, imperfecta. En el cosmos recién nacido podría haberse estropeado con defectos y grietas, a medida que se enfriaba rápidamente y se hinchaba.


Según imaginó Kibble, los defectos cósmicos podrían ser delgados filamentos de energía, de masa altamente concentrada, que han durado hasta nuestros días, tejiendo una vasta red de grietas en la textura del espacio-tiempo. Dentro de cada cuerda aún reinarían las abrasadoras condiciones de la gran unificación.


Hoy las cuerdas deberían estar completamente dispersas. “Las posibilidades de tropezarse con una curva de una cuerda son muy escasas” dice David Bennett, de Fermilab. Bennett afirma que la curva media tendría alrededor de un millón de años luz de circunferencia; la más cercana a nosotros estaría a mil millones de años luz.


Además de ser la más larga, y posiblemente la más vieja estructura del universo conocido, una cuerda cósmica sería también la más delgada: su diámetro sería 100.000.000.000.000.000 veces más pequeño que el de un protón.. Y cada cuerda sería terriblemente inquieta, algo así como un látigo agitándose por el espacio casi a la velocidad de la luz. Las curvas vibrarían como enloquecidas bandas de goma, emitiendo una corriente continua de ondas gravitacionales: rizos en la misma tela del espacio-tiempo. ¿Qué pasaría si una cuerda cósmica tropezara con un planeta? Al ser tan delgada, podría traspasarlo sin tropezar con un solo núcleo atómico. Pero de todos modos, su intenso campo gravitatorio causaría el caos.


Los organismos que consiguen establecer con éxito una relación parasitaria conviven amigablemente con su huésped. Los parásitos de más éxito no inflingen a éste ningún daño perceptible y hacen que su presencia sea lo menos llamativa posible. Cualquier parásito que perjudica a su huésped actúa en detrimento de su propio mundo y de su propio sustento. Cuando el parásito llega al extremo de matar al huésped, muere él mismo. Así pues, los parásitos que mejor sobreviven son aquellos que han conseguido “ajustarse” perfectamente a sus huéspedes.



Cualquier ser humano, está cargado de bacterias y de otros agentes infecciosos que, en general, viven de nosotros y dentro de nosotros sin perjudicarnos para nada y si gravar nuestro organismo más de lo que puede soportar; llegado el caso, son mantenidos a raya por las defensas naturales del cuerpo. La situación se desajusta a veces y entonces sufrimos infecciones, fiebre y enfermedades. Pero aun en esos casos, lo normal es que nos recuperemos y volvamos a la anterior situación de ajuste.


El ajuste no es, claro está, una cuestión de elección deliberada, sino el producto de la química celular que permite al parásito atacar, y al huésped defenderse, en una especie de equilibrio de poder. Al equilibrio se llega a través de los procesos de selección natural, porque aquellos parásitos que atacan con inusitada eficiencia y aquellos huéspedes que no saben defenderse bien tienden a extinguirse antes que el resto.


La química celular puede cambiar de una generación a otra por mutaciones en los genes que la controlan. Los parásitos microscópicos se reproducen con tanta rapidez que la cantidad total de mutaciones es enorme, lo cual significa que algunas serán, de seguro, perniciosas. Puede ocurrir que un cierto parásito experimente cambios que aumenten su capacidad de ataque o que le permita mudarse de un huésped a otro. Una nueva cepa de una enfermedad hasta entonces benigna puede tornarse muy virulenta o muy contagiosa. Con el tiempo se extinguen los huéspedes menos preparados para defenderse y los parásitos menos capaces de restringir su ataque, llegándose así a un nuevo ajuste.


El caso más grave de este tipo en toda la historia de la humanidad se dio en el siglo XIV. En algún lugar de Asia Central apareció hacia 1330 una nueva cepa de bacilo de la peste frente a la cual los humanos estaban especialmente indefensos. La epidemia se propagó y hacia 1347 había llegado a Europa Occidental. La enfermedad recibió el nombre de “peste negra” y en total duró un cuarto de siglo. En este tiempo logró acabar con un tercio de la especie humana; sólo en Europa hubo unos 25 millones de muertes. Fue el mayor desastre que jamás haya caído sobre la humanidad.


Aparte de éste ha habido otras epidemias graves que han afectado a todo el planeta, antes y después de la peste negra. La más reciente fue la gripe que arrasó en 1918, cuando terminaba la Primera Guerra Mundial. En un año mató a 30 millones de personas, aunque esta cifra representaba a la sazón 1/60 de la población mundial.


Cuando pensamos en calamidades semejantes solemos verlas como cosas del pasado. Los actuales conocimientos de higiene y el uso de antitoxinas y antibióticos han permitido reforzar las defensas de la moderna tecnología médica. Al primer indicio de que en 1976 podría irrumpir una epidemia de gripe parecida a la de 1918, se puso inmediatamente en práctica un plan para vacunar a todos y cada uno de los norteamericanos. Ahora, si es cierto que la ciencia puede contribuir a las defensas del ser humano, también puede potenciar, sin preverlo, la virulencia del parásito.


Los biólogos pueden alterar los genes de microorganismos, provocando mutaciones artificiales, con la esperanza de comprender la maquinaria de la vida y producir nuevas cepas de organismos que tengan propiedades útiles para los humanos.


Sin embargo, no siempre es posible predecir los resultados de remodelar un gen. ¿Qué ocurriría si el producto es un tipo de microorganismo con redoblada capacidad patógena, o con superior capacidad de salvar las defensas naturales del cuerpo, o de los antibióticos? ¿Y si un microorganismo corriente e inofensivo, de los muchos que infestan el cuerpo de cualquier persona, se tornara en una nueva cepa peligrosa? ¿Y si un virus remodelado resulta tener la capacidad de alterar la química de las células que invade y de provocar un cáncer?


La probabilidad de que ocurra algo de esta especie es muy pequeña pero el peligro es tan estremecedor – una nueva peste negra de efectos más devastadores, o una epidemia de cáncer que se propagase rápidamente – que, por pequeña que sea la probabilidad de que ocurra, sigue siendo intolerable. El deseo natural es reducir la probabilidad a cero, poniendo fin a cualquier clase de investigación que exija manipular los genes de esta forma. Sin embargo, la mayoría de los científicos se resisten a cerrar esta puerta de la investigación.

Isaac Asimov, 1986
Junto a las cocheras del Tramvia Blau, en Barcelona, en la calle de Bosch i Alsina, se alza una casa modernista, la Casa Fornells. Esa casa, obra del arquitecto Rubió i Bellver, que fue colaborador de Gaudí y edificó también la Escuela Industrial, podría pasar desapercibida, como la última de la serie de edificios asombrosos de la avenida del Tibidabo, que ahora son sede de los colegios ingleses más distinguidos y de prósperas agencias de publicidad si no fuese por su torre: ostenta tantas filigranas y ornamentos, pilares y balaustres y arcos amenos que cuando te fijas en ella por primera vez musitas : "¡Escher!".

En efecto recuerda vivamente las torres de Babel, las torres astrológicas, las torres por cuyas escaleras una hilera de personajes desfilando en procesión cerrada, subiendo y bajando escaleras imposibles, y las demás torres contradictorias, laberínticas -paradojas espaciales-, que le complacía imaginar a Maurits Cornelis Escher, cuyo arte celebra estos días una exposición en Madrid.

Los dibujos que realizó a partir de la mezquita de Córdoba y de las estelas de la Alhambra atestiguan la influencia sobre su obra de la arquitectura árabe, y quizá, me atrevo a aventurar ante la semejanza de la torre de la Casa Fornells con las torres de sus grabados, también de la arquitectura modernista de influencia mozárabe. En cualquier caso, en sus dos viajes a España, en 1922 y 1936, Escher se detuvo en Barcelona y es posible que durante algún paseo viese la torre de Rubió y que un vago recuerdo de ésta afloró años después, en su estudio de Bruselas o de Baar, cuando se puso a dibujar esas torres como conjeturas matemáticas...

Como suelen hacer los creadores turbadores de verdad, Escher procuraba pasar por un tipo corriente, si acaso con alguna manía inofensiva: "No puedo evitar bromear con nuestras certezas, me gusta burlarme de las leyes de la gravedad. ¿Están ustedes tan seguros de que el suelo no es el techo? ¿Y de verdad creen llegar a un nivel superior al subir una escalera?"...

Para algunos de nosotros son una tentación incluso las más irritantes de sus imágenes. Y sus espirales, sus laberintos, sus cintas de Moebius, sus espejos esféricos, se han erigido en representaciones de nuestra época y de sus angustias: ¿quién no se ha quedado absorto contemplando esas dos manos que se dibujan recíprocamente, en circuito cerrado, y que pueden representar la idea Dios o del universo creándose a sí mismo?
Las visiones de Escher fueron muy apreciadas en los guetos contraculturales de la transición, como instantáneas de mundos mágicos, de prodigios sensoriales que nos aguardan en estados paralelos de la conciencia a los que podemos acceder mediante la ingesta de tal o cual droga. En esos contextos las paradojas geométricas de Escher se usaban como la famosa foto en que Albert Einstein saca la lengua al observador: No hacía falta entender sus ecuaciones, bastaba con captar que era un tío enrollado, y tanto la teoría de la relatividad como las geometrías de Escher avalaban el colocón. (De hecho, hasta hace bien poco, había en mi pueblo un pub que mostraba nada más entrar por la puerta un grabado inmenso de Escher que ocupaba toda la barra. Ahora el pub está cerrado y nos hemos quedado sin Escher. Pero me consuelo con ver un cuadro de Kandinksy, otro agitador de la consciencia, que está colgado en otro pub ... y que siempre me produce una sonrisa al verlo, porque está girado 90 grados).

En determinados subsótanos intelectuales se sigue recurriendo a los dibujos de Escher para ilustrar lo vago y lo conjetural. El icono más socorrido de Escher es el autorretrato con un espejo esférico en la mano, donde Escher, que era muy delgado y tenía los ojos muy grandes, parece un mago en trance de autohipnotizarse e hipnotizar a quien lo mire, y que sea lo que Dios quiera.

Panspermia es la hipótesis que sugiere que las "semillas" o la esencia de la vida prevalecen diseminadas por todo el Universo y que la vida comenzó en la Tierra gracias a la llegada de tales semillas a nuestro planeta. Estas ideas tienen su origen en algunas de las consideraciones del filósofo griego Anaxágoras. El astrónomo Sir Fred Hoyle también apoyó la idea de la panspermia.


Existen evidencias de bacterias capaces de sobrevivir largos períodos de tiempo incluso en el espacio exterior, lo que apoyaría el mecanismo subyacente de este proceso. Estudios recientes en la India han hallado bacterias en la atmósfera a altitudes de más de 40 km donde son susceptibles de haber llegado desde las capas inferiores de la misma. Bacterias Streptococcus mitus que fueron llevadas a la Luna por accidente en la Surveyor 3 en 1967, pudieron ser revividas sin dificultad cuando llegaron de vuelta a la Tierra tres años después.


Una posible consecuencia de la panspermia sería que la vida en todo el Universo poseería una base bioquímica similar, a menos que hubiera más de una fuente original de vida.


Una objeción a la panspermia es que las bacterias no sobrevivirían a las altísimas temperaturas y las fuerzas involucradas en un impacto contra la Tierra, aunque no se ha llegado aún a posiciones concluyentes en este punto (ni a favor ni en contra) pues se conocen algunas especies de bacterias extermófilas capaces de soportar condiciones de radiación, temperatura y presión extremas que hacen penas en que la vida pueda adquirir formas insospechadamente resistentes.


El análisis del meteorito ALH84001, generalmente considerado como originado en el planeta Marte, sugiere que contiene estructuras que podrían haber sido causadas por formas de vida microscópica. Esta es hasta la fecha la única indicación de vida extraterrestre y aún es muy controvertida.


Sus defensores sostiene que allá donde comenzara la vida, su diseminación por el universo la siguió.

El pensamiento geográfico y urbanístico sobre los procesos de crecimiento y las formas espaciales de las ciudades ha experimentado muy recientemente un renovado impulso y cambio radical. Los recurrentes y anticuados modelos gravitatorios aplicados al crecimiento y forma de las ciudades con pretensiones científicas y totalizadoras han sido progresivamente sustituidos por teorías que enfatizan la manera cómo conjuntos de acciones físicas puntuales o decisiones aparentemente descoordinadas o caóticas dan lugar a patrones formales globales autoorganizados y ordenados.

La nueva comprensión de los sistemas complejos, de la teoría del caos y de los fractales iniciada por B. Mandelbrot a principios de los ochenta obliga a replantearse desde nuevas bases los fundamentos del planeamiento a medida que aparecen nuevos métodos de manejar la complejidad.



La forma de las ciudades es el resultado de un largo proceso de construcción, interactuando con el emplazamiento físico, en el que han intervenido muchas personas y decisiones con el resultado de crear un complicado artefacto que ya no puede ser entendido desde la geometría euclídea

Su comprensión tiene que hacerse desde una aproximación multiescalar o multidimensional. Las formas de las partes que vemos a las diferentes escalas son autosimilares, es decir que entre ellas existe un tipo de semejanza y simetría que hemos llamado autosimilitud. Ello nos conduce a sus procesos de generación mediante desarrollos repetitivos que podemos clasificar como iterativos. La iteración, como repetición y autorecurrencia es la clave del potencial creativo de los artefactos complejos desarrollados a partir de procesos lineales dinámicos. Estas formas son las hoy denominadas fractales. El término fractal, acuñado por el propio Mandelbrot, deriva de la palabra latina "fractus", o fracción entendida como parte o porción y de "rangere", romper. En definitiva, el concepto es el de fragmento geométrico de orientación y desarrollo variable pero de aspecto similar. La siguiente imagen es conocida como "el conjunto de Mandelbrot"



Partiendo de la investigación y conocimiento visual de las formas, se va profundizando y
entendiendo su estructura y su dinámica de formación y construcción.

Propiedades que podemos observar:

1- Simetría interna : Al observar, la ciudad espacialmente, a través de las diferentes escalas, descubrimos que las formas que se deducen de una determinada escala, son similares a las formas vistas en detalles, en otras escalas distintas.

2- Iteración: En el lenguaje normal, iteración, quiere decir la acción de repetir. La iteración permite construir formas geométricas enormemente complejas, a partir de expresiones algebraicas muy simples. Este aspecto, es la parte más conocida y popular del nuevo universo descubierto por Mandelbrot. La iteración, puede ser una clave del potencial creativo de la naturaleza o de los artefactos complejos humanos, como las ciudades, que pueden iterarse, a partir de elementos más interesantes que las fórmulas matemáticas simples.

3- Irregularidad y rugosidad: Estas formas, de esta nueva geometría, reflejan un universo que es rugoso, escabroso e irregular, sin embargo, su grado de irregularidad o rugosidad se mantiene de alguna manera constante a lo largo de las diferentes escalas. Esta rugosidad, es en realidad una manifestación de la riqueza cualitativa de lo urbano, porque de alguna manera, esta propiedad corresponde a la eficacia de un objeto dimensional para ocupar el espacio.

La ramificación de un árbol o de una red viaria urbana, constituyen formas típicas, producidas por iteración. En el caso de las iteraciones simples, obtendríamos redes regulares. Esto es algo que recuerda la generación de una forma urbana. En su proceso de desarrollo, existen reglas fijas y simples, como las ordenanzas, la tecnología o las costumbres, que se traducen en la definición contundente de las alineaciones, como distinción espacial público-privada, dinámico estática, división parcelaria o edificabilidades máximas. Complementariamente, existen otras posibilidades, que permiten una cierta flexibilidad, innovación, decisiones individuales, como los retranqueos, fondos edificables, formas de las parcelas, arquitectura, dentro de tipos con orden estructural fijo y alternativas variables, respecto a la disposición de habitaciones, huecos, alturas.

Gauss es sin duda, uno de los mejores matemáticos de todos los tiempos. No obstante se le llama "El príncipe de las matemáticas".



La siguiente leyenda la escribo tal y como me la contó mi profesor de Cálculo:

Cuando tan sólo tenía 7 años y asistía a primaria, el profesor de Gauss mandó a sus alumnos que sumasen los números del 1 al 100 (en otros lugares he leído que este fue el castigo que le impuso a Gauss). Aquel día el profesor no tenía ganas de trabajar, se llevó un libro a clase, y les mandó esta tarea a sus alumnos. Al fin y al cabo, a él le había llevado varias horas hacer esta suma ...

A los pocos minutos levantó la vista del libro: alguien estaba armando bronca en clase.

Vio que Gass estaba fuera de su asiento, tirándole de los pelos a otro alumno, provocando el revuelo general...

- ¿Qué pasa contigo "gaussito"? ¿No vas a hacer lo que te he mandado?- le preguntó el profesor furioso, dirigiéndose hacia Gauss con una regla de madera.

- Ya lo he hecho maestro- contestó Gauss.

El profesor se quedó mirándolo muy serio. Si claro, pensó. A mi me ha llevado varias horas calcularlo.

- A ver. ¿Cuánto te da el resultado?

- 5050, maestro - le respondió Gauss con una sonrisa.

El profesor miró su "chuleta" y vio que la respuesta era correcta. Aquello no era posible. Sin duda Gauss había visto la respuesta en algún sitio.

- Dime ¿cómo lo has resuelto? - preguntó el profesor.

- Pues verá ... Me he dado "cuenta" que si sumo el último número al primero (100+1) me da 101... Si después sumo el penúltimo al segundo (99+2) me da 101... Si sumo el antepenúltimo al tercero (98+3) me da 101... Por tanto, he multiplicado 101 por 50, que son las veces que tendría que hacer esta suma, y me da 5050.

El profesor no supo que responder. Me gustaría haber visto su cara. Gauss había descubierto la fórmula del sumatorio de n números consecutivos:
"El primer elemento más el último, multiplicado por el número total de elementos y dividido por dos"

No se sabe si la leyenda es cierta o no pero en cualquier caso tratándose de Gauss es perfectamente posible.

Desde que me contó esta anécdota mi profe nunca se me ha olvidado esta fórmula. Siempre he pensado que los profesores tienen unos recursos impresionantes para enseñar a sus alumnos, y que en la mayoría de los casos no los saben explotar, salvo contadas excepciones.
La belleza del cielo no es más que el resultado de la interacción de la LUZ del sol con la atmósfera. Una cantidad de humedad, relativamente pequeña, acompañada de partículas de polvo es suficiente para provocar en el cielo las múltiples manifestaciones de color.


El secreto del color azul del cielo está relacionado con la composición de la luz solar (integrada por los distintos colores del arcoiris) y con la humedad de la atmósfera (el sol es quien se encarga de procurar al aire su humedad, con su calor, hace que parte del agua de la superfície se evapore).

Para explicar el color azul del cielo imaginemos que dejamos pasar un rayo de sol por un prisma de vidrio. La luz se abre en un abanico de colores (se dispersa) por refracción y como resultado vemos una gama de colores: violeta, azul, verde, amarillo y rojo. El rayo violeta es el que más se ha separado de la dirección del rayo original blanco y ahí está precisamente la explicación del color del cielo. La desviación es máxima para los rayos de longitud corta (azúl y violeta), y mínima para los de longitud de onda larga (amarillos y rojos), que casi no son desviados. Los rayos violetas y azules, una vez desviados, chocan con otras partículas en el aire y nuevamente varían su trayectoria, y así sucesivamente: realizan un danza en zigzag antes de alcanzar el suelo. Cuando, al fin, llegan a nuestros ojos, no parecen venir directamente del sol, sino de todas las regiones del cielo, como en forma de lluvia fina. De ahí que el cielo nos parezca azul, mientras el sol aparece de color amarillo, pues los rayos amarillos y rojos son poco desviados y van casi en línea recta.

La luz es una onda electromagnética y las piezas fundamentales de la materia en su estado más frecuente en la Tierra son los átomos. Si las partículas existentes en la atmósfera tienen un tamaño igual o inferior al de la longitud de onda de la luz incidente, la onda cede parte de su energía a la corteza atómica que comienza a oscilar, y por tanto la primera consecuencia es que la radiación se debilita (difusión de Rayleigh). Esta difusión es mayor para las ondas más cortas. Por tanto la luz violeta es la más difundida, y la menos, la roja. La conclusión es que la luz que nos llega desde el sol en línea recta, al alcanzar la atmósfera se difunde en todas direcciones y llena el cielo. La desviación es máxima para las ondas corta (violeta y azul), y mínima para las ondas larga (amarillo y rojo), que casi no son desviados.

El color del cielo debería ser violeta, por ser ésta la longitud de onda más corta, pero no lo es por dos razones: porque la luz solar contiene más azul que violeta (esto se debe a la composición química del sol) y porque el ojo humano es más sensible a la luz azul que a la violeta.

El color azul del cielo se debe por tanto a la mayor difusión de las ondas corta. El color del sol es amarillo-rojizo y no blanco, porque si a la luz blanca procedente del sol - que es la suma de todos los colores - se le quita el color azul que se dispersa, se obtiene una luz de color amarillo-rojiza.

Cuanto mayor sea el número de partículas que enturbian el aire, tanto peores serán las condiciones de visibilidad a través de dicho aire. El sol, visto a través de una niebla de gotas grandes, aparece desdibujado y de color blanco lechoso, mientras que observado cuando la niebla se debe a polvo fino, tiene el aspecto de disco rojo, como ocurre al ponerse el astro.

Las salidas y puestas de sol nos brindan los más bellos espectáculos que el aire puede ofrecer a nuestros ojos. Si el horizonte es amplio, los efectos se multiplican. Al atardecer, el camino que la luz solar recorre es más largo, los rebotes sucesivos de las partículas hacen crecer la probablilidad de que la luz acabe chocando con una partícula absorvente y desaparezca, de manera que incluso la parte amarilla es afectada y difundida y sólo los rayos rojos, los más direccionales, siguen su camino casi rectilíneo. De ahí el color rojo del sol poniente. Al amanecer, existen menos partículas dispersas por el aire, y el efecto de aerosol atmosférico, que dispersa y desdobla la luz solar, es menor que al atardecer, viéndose menos afectada la parte amarilla.
Pi es la razón de la circunferencia de un circulo a su diámetro. En distintas culturas, china, egipcia, europea, india, etc., se trató de obtener mejores aproximaciones de Pi por ser de aplicación en campos tan distintos como la astronomía o la construcción.

  • La probabilidad de que dos enteros positivos escogidos al azar sean primos entre sí es 6/Pi2
  • Si se eligen al azar dos números positivos menores que 1, la probabilidad de que junto con el número 1 puedan ser los lados de un triángulo obtusángulo es (Pi-2)/4
  • En 1706, el inglés William Jones fue el primero en utilizar el símbolo griego de Pi para denotar la relación entre la circunferencia y su diámetro. Euler en su obra "Introducción al cálculo infinitesimal", publicada en 1748, le dio el espaldarazo definitivo.
  • Muchos intentos para determinar Pi con exactitud están relacionados con el clásico problema de la cuadratura del círculo : "construir, utilizando únicamente regla y compás, un cuadrado de área igual a un círculo dado".
  • Johan Heinrich Lambert(1728-1777), matemático alemán, probó que Pi es irracional. ( Un número irracional no se puede escribir en forma de fracción racional. Números racionales son : 1, 2 , 3/4, 17/23).
  • El matemático alemán Ludolph van Ceulen(1540-1610) pidió que, como epitafio, escribiesen en su lápida las 35 cifras del número Pi que había calculado. Los alemanes llaman a Pi el número ludofiano.
  • William Shanks, matemático inglés, dedico 20 años de su vida a la obtención de 707 decimales de Pi. En 1945 se descubrió que había cometido un error en el decimal 528 y a partir de este todos los demás eran incorrectos.
  • En 1949 uno de los primeros ordenadores el ENIAC, trabajando durante 70 horas, determinó Pi con 2037 decimales.
  • En 1959, ordenadores en Francia e Inglaterra calcularon más de 10.000 cifras de Pi.
  • En 1961 Daniell Shanks(sin relación con William Shanks) y Wrench, obtuvieron en 8 h 23 min, 100.265 cifras en un IBM 7090.
  • En 1983, Yoshiaki Tamura y Yasumasa Kanada, en menos de 30 h, en un HITAC M-280 H obtuvieron 16.777.206 (224) cifras.
  • En Julio de 1997, Yasumasa Kanada y Daisuke Takahashi obtuvieron 51.539.600.000 cifras , utilizando un HITACHI SR2201 con 1024 procesadores.
  • Ferdinand Lindemann(1852-1939) demostró que Pi es un número trascendental. Esto significa entre otras cosas que el problema de la cuadratura del círculo no tiene solución. Pese a ello todavía se sigue intentando.

Vivimos en un mundo pequeño, donde todo esta conectado con todo. Las redes son cada vez más importantes y a nosotros nos faltan mecanismos para poder entenderlas como corresponde. Stanley Milgran desarrolla desde hace años numerosas investigaciones sobre las estructuras de redes sociales para poder desarrollar una teoría precisa. Milgran se planteó como objetivo el encontrar la distancia entre dos personas cualesquiera elegidas al azar en el mundo.


Para empezar Milgram eligió dos personas, la mujer de un estudiante graduado en Massachusetts y un operador de bolsa en Boston. Tomó como puntos de partida a las ciudades de Wichita Kansas y Omaha Nebraska, porque desde Boston esas ciudades parecían lejanisimas. En ese momento nadie sabía cual sería la distancia social entre esas personas y cuando se le pregunto a Milgran en cuantos pasos la estimaba dijo que sería alrededor de 100 (pasos intermedios). Después de ciertos cálculos el numero necesario de intermediarios fue de 5.5 redondeado en 6. Se trataba de los famosos seis grados de separación.


La conclusión -de la que todavía nos cuesta hacernos cargo casi 4 décadas más tarde- es que todo el mundo en este planeta esta separado por solo otras 6 personas. Seis grados de separación. Entre nosotros y cualquier otra persona del planeta. El presidente de USA. Un gondolero en Venecia. Un estudiante chino. No se trata de los nombres importantes tan solo. Cualquiera. Un nativo en un bosque de la lluvia. Un esquimal. Estamos conectado con todos los otros seres humanos por una huella que solo ocupan 6 personas. Se trata de una idea original y con mucha capacidad de arrastre. Cada nueva persona es una nueva puerta que abre a otros mundos.


Si esta idea resulta sorprendente se debe a que a pesar del enorme tamaño de nuestra sociedad, esta puede ser navegada fácilmente siguiendo los enlaces sociales de una persona a otra -una red de 6300 millones de nodos en donde el promedio de un par de nodos esta a una distancia de 6 enlaces uno del otro.


Los premios Ig Nobel son una parodia de los Premios Nobel que suele resolverse en las mismas fechas que los premios originales, aproximadamente en el mes de octubre. Están organizados por la revista de humor científica Annals of Improbable Research (AIR), y co-patrocinados por varias sociedades que ostentan la palabra Harvard en su denominación, como The Harvard Computer Society o The Harvard-Radcliffe Society of Physics Students. La gala de entrega se realiza en el Sanders Theatre, de la Universidad de Harvard.

Su aceptación y popularidad desde su institución en 1991 es creciente con el paso del tiempo. Estos premios galardonan los logros de investigaciones que primero pueden provocan risas, pero después hacen que las personas piensen. Los premios pretenden celebrar lo inusual, honrar lo imaginativo y estimular el interés de todos por la ciencia, la medicina, y la tecnología.

En inlés Ig Nobel se pronuncia igual que ignoble, que significa "innoble", de ahí el nombre.


La lista, traducida de The 2006 Ig Nobel Prize Winners, es esta, y verdaderamente hace honor a su lema de premiar «aquellos logros que no pueden o no deben ser reproducidos»:


  • Ornitología: Ivan R. Schwab, de la University of California Davis, y el fallecido Philip R.A. May de la University of California Los Angeles, por explorar y explicar por qué a los pájaros carpinteros no les dan dolores de cabeza.

  • Nutrición: Wasmia Al-Houty de la Kuwait University y Faten Al-Mussalam de la Kuwait Environment Public Authority, por demostrar que los escarabajos peloteros son en realidad muy mirados con lo que comen.

  • Paz: Howard Stapleton de Merthyr Tydfil, Gales, por inventar un dispositivo que produce un molesto sonido diseñado sólo para ser oído por los adolescentes pero no por los adultos; y por luego usar esa misma tecnología para hacer tonos de teléfono que los adolescentes pueden oír pero sus profesores no.

  • Acústica: D. Lynn Halpern (de Harvard Vanguard Medical Associates, y la Brandeis University, y la Northwestern University), Randolph Blake (de la Vanderbilt University y la Northwestern University) y James Hillenbrand (de la Western Michigan University y la Northwestern University) por llevar a cabo experimentos para ver por qué a las personas no les gusta el sonido de las uñas rascando en una pizarra.

  • Matemáticas: Nic Svenson y Piers Barnes de la Australian Commonwealth Scientific and Research Organization, por calcular el número de fotografías que tienes que tomar para estar (casi) seguro de que nadie en un grupo tendrá sus ojos cerrados.

  • Literatura: Daniel Oppenheimer de la Princeton University por su estudio «Consecuencias de la Utilización del Vernáculo Erudito Independientemente de su Necesidad: Los Problemas de Usar Palabras Largas sin Necesidad» (Consequences of Erudite Vernacular Utilized Irrespective of Necessity: Problems with Using Long Words Needlessly).

  • Medicina: Francis M. Fesmire del University of Tennessee College of Medicine, por su informe clínico «Terminación de Hipos Intratables con Masaje Rectal Digital» (digital de dedo, por cierto); y Majed Odeh, Harry Bassan, y Arie Oliven del Bnai Zion Medical Center, Haifa, Israel, por su posterior informe clínico con el mismo título.

  • Física: Basile Audoly y Sebastien Neukirch de la Université Pierre et Marie Curie, de París, por sus estudios acerca de por qué cuando doblas espaguetis secos, estos a menudo se rompen en más de dos partes.

  • Química: Antonio Mulet, José Javier Benedito y José Bon de la Universidad de Valencia, España, y Carmen Rosselló de la University de las Illes Balears, en Palma de Mallorca, España, por su estudio «Influencia de la Temperatura en la Velocidad Ultrasónica del Queso Cheddar». Sin comentarios.

  • Biología: Bart Knols (de la Wageningen Agricultural University, en Wageningen, Países Bajos; y del National Institute for Medical Research, en el Ifakara Centre, Tanzania, y de la Agencia Internacional de Energía Atómica, en Viena, Austria) y Ruurd de Jong (de la Wageningen Agricultural University y de Santa Maria degli Angeli, Italia) por demostrar que la hembra del mosquito de la malaria Anopheles gambiae se siente tan atraída por el olor del queso limburger como por el olor de los pies humanos.