20.12.05

¿El tamaño? ¡Vaya si importa!

Estaba seguro, pero me faltaban pruebas, datos concluyentes. De hecho, recibí la noticia de New Scientist con un punto de apatía, no más allá de un flemático gesto de confirmación. “¡Pues claro! –pensé- No podía ser de otra manera...”

Me refiero –perdón por el olvido- al artículo Mating system and brain size in bats, publicado en los -supongo prestigiosos- Proceedings of the Royal Society B: Biological Sciences, que demuestra, todo lo fehacientemente que se pueden demostrar estas cosas, que un gran cerebro va asociado a unos testículos pequeños, y viceversa.

¿¿¿........!!!
Bueno, sí, es cierto, el descubrimiento se ha producido en murciélagos, no en humanos, pero si ya es pequeña la diferencia entre los genomas del hombre y de la mosca, qué podemos esperar del genoma del murciélago, un mamífero tan dotado de atributos como el más pintado. Vamos que no es cosa de buscar diferencias por un quítame allá esos genes.

Reescribir la historia

Lo sustancial es que tras un minucioso estudio de 334 especies de murciélagos, los científicos han observado que en las especies donde las hembras son promiscuas, los machos han desarrollado grandes testículos, pero tienen pequeños cerebros, y que en especies donde las hembras son monógamas, la situación es la inversa.

¿Qué puede derivarse de este descubrimiento? Para algunos, que una relación monógama es más exigente para el cerebro (quizás demanda más imaginación). Para otros, que los testículos crecen cuando existe mucha demanda de esperma.

Pero yo creo que esta relación de proporcionalidad inversa entre el tamaño del cerebro y el de los testículos es muy significativa. Al fin y al cabo, se trata de una ley empírica que conecta los dos órganos –cerebro y testículos- que han marcado casi todos los hitos críticos en el devenir de la humanidad. Basta echar un vistazo a nuestra historia para comprender que estos órganos han ido alternándose en la dirección estratégica del mundo, siempre, eso sí, con abrumadora dominancia de los testículos.

Un alivio para más de uno

¿Recuerdan el chiste de Bill Gates (Billy Puertas para los amigos)? ¿El de su noche de bodas? Sí, cuando se desnuda ante su mujer y ésta le dice, patidifusa:

Honey! Ahora entiendo el porqué del nombre de tu empresa:
MICRO... ¡y SOFT!
Pues ahora, tras la lectura de esta investigación, podría haber un final diferente para la situación, bastante más ventajoso para Gates:

Honey... Nunca hubiera imaginado que fueras tan... ¡tan inteligente!

Y es que expresiones que solo respondían a pura envidia - del tipo “mucho músculo, poco cerebro”- adquieren ahora un aire científico.

Testículos y cerebro son competencia directa. Parece ser que el tejido cerebral y las células de esperma requieren mucha energía metabólica y compiten para conseguirla, lo que lleva a una preferencia de desarrollo de un órgano frente al otro. Algo así como “el uso hace al órgano”. O dicho de otra manera, dime cómo actúas y te diré qué órgano desarrollas.

O sea, que llevando esto al extremo podría pensarse que la inteligencia tiende a ser máxima cuando los testículos tienden... ¡a cero! Hete aquí a la ciencia puntera tocando las pelotas al macho carpetovetónico (valga la redundancia).

23.10.05

¡Que pague el autor!

Parece surrealista, pero no; es una propuesta firme que está comenzando a hacer mella en el ámbito de las revistas científicas. Se trata de una tendencia que avanza imparable hacia las publicaciones de acceso gratuito, con contenidos abiertos a través de Internet. La financiación provendría de los autores, generalmente a cargo del presupuesto de su proyecto de investigación.

Este nuevo modelo está siendo adaptado por un número creciente de instituciones científicas para resolver el problema del alto coste de las revistas. Las revistas de mayor prestigio -Nature, Science, Journal of American Chemical Society...- se financian con las elevadas suscripciones que pagan las bibliotecas de los centros de investigación. El coste global para las bibliotecas es de escándalo, y lo peor es que muy pocas personas pueden acceder al contenido.

Formalmente no es un modelo nuevo. Ya se venía empleando en revistas científicas de papel, pero restringido a las publicaciones de bajo o nulo criterio de revisión por pares y, por tanto, con escasa credibilidad entre los expertos. Estas revistas se aprovechan de la fiebre de los investigadores por publicar, sea lo que sea. Cuando un trabajo es rechazado por las revistas de prestigio, el autor paga gustosamente por publicarlo en otras porque los artículos son la medida externa de su productividad y van asociados a su progreso en la carrera profesional. De modo que ven este gasto como una inversión imprescindible. Por tanto, mientras sea la cantidad -y no solo la calidad- lo que cuente como mérito, siempre habrá demanda de espacios para publicar, cuesten lo que cuesten.

La idea de que pague el autor resulta razonable, siempre que se garantice el rigor absoluto en la selección de los trabajos. Hasta ahora, las revistas de más prestigio se apoyan en la credibilidad de su comité editorial: cuanto mejor hacen la criba y revisión editorial, mejor compiten. En el nuevo modelo este criterio se pervierte: cuantos más trabajos publiquen, más gana la revista. Por eso existe el riesgo de que cedan ante la “incontinencia publicadora” de muchos científicos de medio pelo, y de que se publiquen muchos artículos insuficientemente contrastados.

¿Cómo evitarlo? Creo que apelar al filtro ético personal del investigador es una forma segura de perpetuar el monopolio de las revistas tradicionales. Más razonable es mantener el riguroso sistema editorial de revisión por pares, similar al que prestigia a las grandes revistas de papel. Así es como lo entienden instituciones como la Public Library of Science, de acceso gratuito, donde para publicar hay que superar una exigente revisión del artículo, como en las revistas tradicionales, y luego pagar con cargo a la institución que publica. Esto es a la larga más barato que la compra de revistas y, desde luego, llega a muchísima más gente. Además es un modelo sostenible para las editoras científicas.

Otra medida para controlar la incontinencia publicadora es limitar el número de trabajos a presentar en los concursos públicos. Por ejemplo, pedir a un investigador que presente solo los diez trabajos más relevantes de su carrera, los más completos, más fundamentados, más citados, los que han tenido un impacto mayor en la comunidad científica... En definitiva, los que merezcan de verdad ser considerados. Así se evitarían esas memorias voluminosas, llenas de artículos con escasas ideas repetidas hasta el infinito, enviadas una y otra vez a congresos y revistas irrelevantes. Son publicaciones a granel, que solo sirven para alimentar la vanidad y la carrera de los científicos mediocres. Eso explica que tengamos uno de los sistemas que más publicaciones genera y, sin embargo, menos patentes produce, porque el punto de mira se pone en el grosor del currículo personal, y no en la creatividad, la innovación y la transferencia a la sociedad y a la empresa del progreso realizado.

O sea, que el tipo de evaluación de la actividad investigadora condiciona no poco el tipo de investigación que se realiza. Hasta ahora, la calidad de un trabajo se asociaba a la de la publicación que acababa por aceptarlo. Si se cambiara el sistema de evaluación, la calidad vendría dada por el impacto real (en número de referencias generadas, pero también de patentes relacionadas). Y en términos de impacto, Internet es el canal perfecto, porque llega a muchos más científicos de cualquier lugar del globo. Así que un sistema editorial de calidad, como el de las grandes revistas, asociado a un canal como Internet, proporcionaría un gran impulso a la investigación de calidad.

PLoS Biology - www.plosbiology.org
PLoS Medicine - www.plosmedicine.org

30.8.05

Patatas fritas: peligro indefinido

Mira que nos lo tienen dicho:
“Todo lo que nos gusta o es caro, o engorda o es pecado”.

Pero hombre, uno se aferra a sus trazas de ingenuidad para creer que habrá algún resquicio en esta absurda regla. Pues no, tarde o temprano nos vienen con la penitencia en forma de michelines, de notificación del banco o, lo que es peor, de amenaza de cáncer, la presentación contemporánea del purgatorio.

Y eso es lo que pasa con las patatas fritas, ese modesto alimento que atrapa nuestra voluntad en cuanto lo probamos. Barato, nutritivo, sencillo de preparar... pero con muchos aguafiestas empeñados en castigar nuestro paladar. Hace dos o tres años se detectó la presencia de acrilamida, una peligrosa sustancia que suele formarse en tratamientos a elevadas temperaturas de alimentos con almidón en presencia de grasas, como sucede al freír la patata.

Bueno, el calor no solo genera sustancias cancerígenas en la patata. También hace años ya saltó la voz de alarma en Estados Unidos al descubrir que el máximo exponente de su “sofisticada” cocina nacional, la barbacoa, provocaba la aparición de cancerígenos en las zonas requemadas de la carne –que sí, las más sabrosas; si ya lo venía diciendo...-, también por la elevada temperatura en la superficie de contacto.

Pero las patatas fritas han ido acumulando más y más pruebas de cargo, como la noticia de Reuters de este mes de agosto que asociaba el elevado consumo de patatas fritas en los niños con una mayor incidencia de cáncer de mama al hacerse adultos.

Y eso que la U.S. Food and Drug Administration (FDA) no acaba de tenerlo claro.

“La acrilamida puede producir cáncer en animales de laboratorio en altas dosis, pero no está claro que los bajos niveles presentes en los alimentos puedan provocar cáncer en humanos.”

Por si acaso, hay quien ha puesto el carro delante de los bueyes y se ha puesto a regular el asunto. Bueno, la cosa es que los californianos, guiados por la astuta batuta de Arnold Schwazennager, muy pronto encontrarán en todo tipo de bolsas de patatas fritas mensajes que alertan del peligro potencial de este alimento.

Conociendo al Gobernador, imagino que serán mensajes sutiles, como los que aparecen en los paquetes de tabaco:

“Comer patatas puede matar.”

Y es que las patatas comparten con el tabaco ese punto de adicción. Una vez que tomas la primera, ya no hay quien pare hasta terminar la bolsa. No es para tomarlo a broma, que una cosa es la acrilamida y otra más seria son los americanos. No me parece mal que nos avisen de los riesgos; lo que me preocupa es que tarde o temprano querrán salvarnos.

Ya lo estoy viendo: zonas reservadas para devoradores de patatas fritas, dispensarios de gusanitos para consumidores enganchados a las chips y obligación de servir los perritos calientes con tiras de zanahoria. En fin, que me veo comiendo el huevo con patatas cocidas. Si al menos diera el presupuesto para acompañar los cachelos con “pulpo a feira...”

19.7.05

¿Por qué le llamamos eficiencia energética cuando queremos decir subvención?

Las subvenciones, incentivos, exenciones fiscales, y las diferentes formas de pagar entre todos los elevados costes de lo que solo acaba beneficiando a unos pocos, son una fuente de opacidad que impide el análisis objetivo, sereno e imparcial de las fuentes energéticas y de su eficiencia.

Pensemos en la energía nuclear, por ejemplo. El pasado mes de junio el presidente del Foro de la Industria Nuclear Española, Eduardo González, defendía un incremento de esta energía –que el pasado año supuso la cuarta parte de la producción eléctrica en España- porque “el modelo energético no puede depender de los combustibles fósiles por el precio y por el cambio climático” y aprovechó para recordar que el “coste medio de producción es de 0,1083 euros por kilowatio-hora.” Pero, ¿es realmente ese el coste real del kW·h? ¿Se incluyen ahí las ayudas oficiales iniciales y la compensación por la moratoria nuclear? ¿Y la elevada factura de gestión de los residuos? ¿Y los costes de desmantelamiento de la propia central?

El caso de las energías alternativas

Esta falta de transparencia con los temas de la energía dificulta la toma fundamentada de decisiones y da soporte al discurso demagógico. Pero si es difícil evaluar el coste en una energía tradicional, hacerlo con las energías renovables es una pura entelequia.

Pensemos por ejemplo en la energía solar fotovoltaica. En la espectacular placa solar que se instaló en el Fórum de Barcelona, hubo tímidas voces que recordaban que el consumo energético para producir esa instalación era muy superior a la energía que llegaría a producir. Es decir, que bajo el punto de vista de eficiencia energética, hicieron un pan con unas tortas.

Pero no hay datos que permitan hacer un análisis serio, de modo que la valoración queda al albur de los medios. Así, si un político decide subvencionar una instalación fotovoltaica con, pongo por caso, silicio monocristalino, los medios afines abundarán en lo ecológico de esta propuesta, pero seguramente obviarán el costoso proceso para llegar a ella. Olvidarán decir que primero habría que reducir la sílice de la arena con carbón, hasta romper los fuertes enlaces del silicio con el oxígeno, y que finalmente sería emitido a la atmósfera como CO2. Obviarán que después habrá que tratar el silicio con halógenos para obtener un compuesto volátil que habrá que purificar por destilación y posteriormente descomponerlo para formar silicio puro, con la inevitable emisión de los dañinos radicales halógeno. Y eso no es todo; más tarde habría que fundir el silicio obtenido para formar un gran monocristal por crecimiento controlado, y por último cortarlo en obleas capaces de transformar la luz solar en una débil corriente eléctrica. Si una oblea se trocea en pequeñísimos fragmentos y cada uno sirve para construir un chip o para alimentar una calculadora, este esfuerzo será muy rentable. Pero si la idea es cubrir un tejado con estas costosísimas obleas para producir electricidad, seguramente nunca llegaremos a recuperar la energía que se tuvimos que emplear en la fabricación. Es decir, estaríamos despilfarrando energía. Pero claro, si un político ávido de medallas decide subvencionar la instalación, la electricidad nos saldría gratis, aunque tenga un coste altísimo para el planeta.

Tampoco se libra la energía eólica de esta corriente de desinformación. En un reciente artículo publicado en Diagonal, Pedro Prieto explicaba que “un generador eólico de 2,3 MW (harían falta entre 3000 y 5000 aparatos de este tipo para sustituir a la central nuclear de Almaraz), supone 1000 toneladas de hormigón para los cimientos, 150 toneladas de acero, varias toneladas de cobre y unas 30 toneladas de fibra de vidrio para las palas. Una España eólica en electricidad supondría un gasto del 70% del acero que se consume en España, unas dos veces el cemento que se consume en España y unas dos veces la fibra de vidrio que se consume en el mundo.” Por otro lado, Javier Álvarez Vara denunciaba esta semana en Cinco Días la “la falta de transparencia que rodea al apoyo oficial a esta tecnología -basta con fijarse en la adjudicación de autorizaciones a los parques y las plusvalías en la reventa de algunas de estas concesiones-. Una vez se pusieran todos los elementos en la balanza, la política de apoyo temporal y transparente sería la única sensata. Un cambio en los incentivos, que el mercado de concesiones nos indica excesivos, conduciría, además, a la utilización de las tecnologías eólicas más eficientes de entre las hoy en día disponibles. El actual sistema de primas incentiva la ocupación rápida del territorio, al margen del aprovechamiento óptimo de los recursos eólicos existentes.”

El hidrógeno, el vector energético esperado

¿Y qué decir de la utilización del hidrógeno? Los ensayos técnicos apuntan que la tecnología de las pilas con hidrógeno es válida para dispositivos de bajo consumo y alto coste, como ordenadores portátiles y móviles, pero absolutamente inadecuada para sustituir a los combustibles fósiles. Entonces, ¿por qué los fabricantes de vehículos hablan con tanto optimismo de la proximidad de una economía basada en el hidrógeno? Pues fundamentalmente por las fuertes subvenciones públicas a esta energía, que ocultan la rentabilidad real. Y también en la escasez de luces –o tal vez sea pura demagogia, no sé qué es peor- de algunos políticos, que ven en el hidrógeno la gallina de los huevos de oro y una máquina de atraer votos de todas las corrientes. Por ejemplo, en 2003 Bush logró la aprobación de un importante proyecto sobre las pilas de combustible de hidrógeno. Un proyecto que también estaba en el programa de Kerry, y con mayor compromiso de inversión. La propia Comisión Europea se ha propuesto fomentar el paso a una economía basada en el hidrógeno, para lo que está apoyando ambiciosas iniciativas tecnológicas para la producción, almacenamiento y distribución de hidrógeno. El gobernador de California aún va más lejos. Arnold Schwarzenegger ha decidido promover la construcción de una red de estaciones de servicio de hidrógeno, convencido de si hay estaciones habrá vehículos de hidrógeno. Desgraciadamente ha sido menos original en el diseño de las estaciones, que utilizarían gas natural para producir hidrógeno (y por tanto, grandes cantidades de CO2).

En lo que parece haber acuerdo general es en que la fuente energética más ecológica y sostenible es el ahorro y la eficiencia, pero ¿cómo se puede evaluar la eficiencia de una fuente energética con tanto oscurantismo? Para evaluar adecuadamente las inversiones y dirigir los esfuerzos en el sentido adecuado es fundamental disponer de datos homogéneos, que contengan todos los factores objetivos y no incluyan el ruido de las subvenciones.

La relación coste-beneficio debe estar detrás de toda decisión política, para que con la excusa de una acción ecológica no se acabe provocando justamente lo contrario. Y es que, no lo olvidemos, la demagogia es uno de los peores enemigos del medio ambiente.

16.7.05

Crónica de una tragedia anunciada: aniversario de la primera explosión nuclear

Esta semana se celebra –es una forma de hablar- el sexagenario de un macabro experimento, que daría un giro radical a la historia de la Humanidad. Se trata de la primera explosión nuclear, que tuvo lugar en el desierto Jornada del Muerto, en Alamogordo (Nuevo Méjico).

El experimento -bajo el sugerente nombre en clave de Trinity, al parecer propuesto por el mismísimo Robert Oppenheimer- se diseñó para ensayar una nueva arma desarrollada en Los Álamos. Sería la primera explosión nuclear provocada por el ser humano, y respondía a la necesidad de disponer de datos experimentales sobre su poder destructor, porque solo había estimaciones deducidas de los cálculos. Obviamente, Oppenheimer no eligió el nombre de Trinity por la atractiva protagonista de Matrix, escenario previsible en una hipótesis de desarrollo incontrolado del poder nuclear, sino que se inspiró en un pasaje del Bhagavad-Gita hindú, de donde tomó el concepto de trinidad entre el creador (Brahma), el protector (Vishnu) y el destructor (Shiva).

Para medir los efectos del Trinity, era necesario calibrar los instrumentos, por lo que se detonaron unos meses antes del experimento 108 toneladas de TNT apiladas entre tubos repletos de productos de fisión. Lograron así una explosión sin precedentes que, sin embargo, resultó muy débil comparada con Trinity, por lo que algunos aparatos resultaron dañados y se perdieron muchas de las mediciones previstas.

También salieron mal parados resultaron algunos de los asistentes al experimento. Al fin y al cabo las normas de seguridad eran casi inexistentes. Baste decir que el plutonio necesario para el núcleo de la bomba se transportaba sin ninguna protección especial, o que los componentes se ensamblaron en el rancho McDonald de Alamogordo, desde donde fueron llevados al punto cero para montar la bomba. El montaje final se llevó a cabo ¡en una simple tienda de campaña!
Con estos antecedentes sorprende que no hubiera muchas víctimas entre los asistentes, aunque la información en este sentido es confusa. Hay algún documento de Los Alamos National Laboratory sobre este aspecto, pero parece que se trata de información restringida. Al menos yo no he podido acceder a él (LA-3719 Health Physics Survey of Trinity Site). Sí parece que resultaron seriamente irradiados algunos grupos de soldados que asistían como cobayas protegidos por simples trincheras.

El día 16 de julio, a las cinco y media de la mañana, se dio la orden de detonación. Oppenheimer la siguió desde un cobertizo situado a unos diez kilómetros del punto cero, y aunque dio instrucciones de ponerse de espaldas a la explosión para protegerse del fuerte resplandor, no pudo evitar que varios observadores quedaran cegados por la luz. Los cronistas recogen la profunda satisfacción de un Oppenheimer convencido de que había encontrado el arma que pondría fin a la Segunda Guerra Mundial, como sucedió realmente. Pero Oppenheimer no hubiera estado tan orgulloso de saber que acababa de cortar la cinta inaugural de una era trágica, cuyo primera manifestación tendría lugar un mes después, cuando cayeran sobre Hiroshima y Nagasaki los mortíferos ingenios nucleares que cambiarían la historia. Y que más tarde daría inicio a la guerra fría, una época peligrosa en la que el crecimiento desmedido de las armas nucleares amenazaría la propia supervivencia del planeta.

Afortunadamente, la cordura volvió al panorama político a través de acuerdos de no proliferación nuclear entre las superpotencias. Sin embargo, todavía sufrimos las secuelas de esa fiebre. Según New Scientist “disfrutamos” de un preocupante legado nuclear, con nueve naciones con armamento atómico, 27000 bombas y 1855 toneladas de plutonio en el mundo. Hay además numerosos países que, si bien no disponen de armamento nuclear, poseen los materiales y la tecnología para desarrollarlo.

O sea, que el aniversario de la primera explosión nuclear provocada no es una celebración de las de tirar cohetes -nunca mejor dicho- ni de las que la humanidad deba estar orgullosa. Pero sí es un motivo para buscar el entendimiento entre los pueblos. Las naciones siguen sin ponerse de acuerdo y los tímidos intentos de control nuclear no pasan de actuaciones cosméticas. Es el caso del acuerdo alcanzado en Viena hace pocos días entre 89 naciones que decidieron hacer un seguimiento más intenso de los materiales atómicos. Se agradece el intento, pero ¿es suficiente?

24.5.05

Ponte rojo... para competir

Según un estudio publicado la pasada semana en la revista Nature los deportistas que visten de rojo tienen ventaja respecto a sus adversarios. Pero, ¿es realmente así?

Russell A. Hill y Robert A. Barton, investigadores del Evolutionary Anthropology Research Group de la universidad de Dirham, afirman en este artículo que el color rojo en la vestimenta de un deportista le proporciona una ventaja que puede marcar la diferencia cuando los competidores están igualados en todos los demás aspectos.

Hill y Barton extrajeron esta conclusión tras examinar los resultados de cuatro disciplinas de lucha en los pasados Juegos Olímpicos de Atenas en los que participaban dos adversarios, a los que se asignaba aleatoriamente el color rojo o azul para el combate. Según sus observaciones, el deportista con prendas rojas ganó al vestido de azul en el 55 % de los combates en las disciplinas estudiadas (boxeo, taekwondo, lucha greco-romana y lucha libre).

La conclusión parece previsible y razonable. El color rojo en la naturaleza suele ir asociado a una mayor agresividad y a situaciones de intimidación del oponente, de modo que parece razonable que "vestir de rojo suele estar vinculado con una mayor probabilidad de vencer". Pero, ¿son significativas las pruebas que llevan a esta conclusión? ¿Es suficiente el análisis de resultados de lucha por parejas en una Olimpíada para concluir que el rojo es ventajoso?

Que la conclusión parezca razonable no significa que se haya demostrado. Más aún. Los autores relacionan las prendas rojas con la coloración roja utilizada como señal asociada a la testosterona en varias especies animales. Es decir, que vestir de rojo podría análogamente incrementar los niveles de testosterona y, por ello, la agresividad y las posibilidades de vencer. Pero que las prendas rojas incrementen los niveles de testosterona de quien las lleva es una mera hipótesis que el estudio no trata de dilucidar. Por otro lado, los investigadores añaden no poca confusión al incorporar en sus matizaciones comentarios sobre equipos que eligen prendas rojas para competir, es decir, prendas que no proceden del azar, sino de la preferencia. ¿Son más agresivos por llevar estas prendas o las eligen porque son más agresivos?

Las apariencias engañan, también en el trabajo científico

En mi opinión, los autores interpretan de forma un tanto superficial la correlación entre vestir de rojo y tener mayor probabilidad de ganar. Pero que exista una correlación entre datos no garantiza que la hipótesis sea correcta. Por ejemplo, hace años vi una tabla que mostraba una elevadísima mortandad por tuberculosis en Segovia, muy superior a la de otros lugares peninsulares. Un análisis superficial llevaba a la conclusión inmediata de que el clima segoviano era especialmente peligroso para los enfermos pulmonares. Pero al profundizar en el análisis se deducía exactamente lo contrario. El clima segoviano era idóneo para el tratamiento de estos enfermos, lo que llevaba a un mayor número de sanatorios especializados y, lógicamente, a un mayor número de fallecidos por estas enfermedades.

¿No pasará lo mismo con la interpretación del color rojo de las prendas deportivas? Un primer análisis apunta a que el rojo aumenta la agresividad de quien lo viste, pero ¿es esta la única lectura? En ausencia de datos de los niveles de testosterona u otras hormonas entre los contendientes, yo me decantaría por explicaciones más verosímiles, como que el que distribuye la ropa entrega el color rojo al que parece más fiero, o que el menos competitivo acepta mejor el azul o, simplemente, que la muestra tomada para este estudio no es estadísticamente significativa. Confieso que se me escapa la representatividad de las muestras cuando se trabaja con experimentos complejos en los que se miden variables de comportamiento humano, como es el caso.

De lo que sí estoy seguro es de que hay que andar con cuidado en la interpretación de este tipo de resultados, porque no sería la primera vez que me encuentro con atrevidas conclusiones de estudios basados en muy pocos datos, aunque a decir verdad, me sorprendería que una revista como Nature acepte trabajos de discutible rigor. Seguramente es que carezco de los criterios para entender trabajos de este tipo o que me falta parte de la información. En cualquier caso, a partir de ahora me propongo mirar con un pelín más de escepticismo los estudios de las publicaciones con marchamo de “prestigiosa”.

Más información:

Psychology: Red enhances human performance in contests
Nature 435, 293 (19 May 2005) doi: 10.1038/435293 a

16.5.05

Agua “magnética” y corrientes de Foucault

Nunca gana uno para sorpresas. En la pasada Feria Madrid por la Ciencia, un alumno que exponía en un stand se ofreció a demostrarme que el agua era magnética, y lo hizo con un sencillo experimento: acercó un potente imán de neodimio a un globo con agua, equilibrado con otro globo similar en los extremos de una varilla que colgaba de un soporte. Efectivamente, al acercar el imán a uno de los globos, se apreció una repulsión y el sistema giró. Repitió la experiencia con unas uvas equilibradas de la misma manera, y también se produjo una repulsión similar, “porque las uvas tienen agua, que es magnética”, insistía.

¡Agua magnética! Me recordó el caso de una pobre vecina que hace años compró una jarra para magnetizar el agua y así, según las promesas del desaprensivo comercial, depurarla y eliminar los malos sabores. La única verdad es que mi vecina pagó 16.000 pesetas de entonces por una jarra de cerámica con un imán pegado en el fondo (aunque durante un tiempo mi vecina estuvo firmemente convencida de que esta agua sabía mucho mejor). El sistema para magnetizar el agua era tan eficaz como el de colocar imanes en el colchón para mejorar el descanso o llevar brazaletes magnéticos para proteger la salud. Son simples fraudes, amparados por la credibilidad y la ignorancia.

Es verdad que el agua forma dipolos eléctricos, pero no se magnetiza tan fácilmente. Entonces, ¿cómo se explica la repulsión que experimenta el globo al acercar un imán? Bueno, se puede justificar por la aparición de lo que los físicos llaman “corrientes de Foucault”. Es un poco complicado, pero trataré de explicarlo.

Si dejamos caer a la vez un imán potente y una pesada tuerca de hierro sobre una placa gruesa de aluminio o de cobre, veremos que la tuerca cae antes; es como si el imán se frenara. El motivo es que un campo magnético variable (por ejemplo, el generado por el imán que se acerca) provoca la aparición de corrientes inducidas en la placa conductora, que a su vez generan un campo magnético, con la peculiaridad de que este campo inducido se opone al campo que lo provocó. Es decir, al mover el imán hacia la placa, la propia placa se comporta como un imán de campo opuesto, por lo que se produce repulsión entre la placa y el imán.

Esto explica el comportamiento del globo de agua. Al acercar el imán se genera una corriente inducida y un campo magnético opuesto al del imán, débil pero suficiente para desplazar lentamente el sistema en equilibrio. De hecho, si en lugar de colgar de los extremos de la varilla dos globos de agua se ponen dos piezas de cobre o de aluminio, que son materiales no magnéticos, el comportamiento será similar: al acercar el imán se apreciará una repulsión en todos los casos, debido a los campos inducidos en estos materiales. Para que se produzcan los campos inducidos es imprescindible que los materiales conduzcan la electricidad.

Una receta para comprobar las corrientes inducidas

Como lo que he contado antes parece un trabalenguas, invito a hacer un experimento sencillo y espectacular para entenderlo mejor. Se necesita un tubo de cobre y un imán potente, de neodimio, que quepa por su interior (yo utilizo un tubo de cobre que compré en una tienda de fontanería. Mide alrededor de un metro, y el diámetro es de unos 2,5 cm. El diámetro del imán debe ser cercano, de unos 2 cm).

Se deja caer por el tubo un trocito de esponja, o de papel, para ver lo que tarda en caer y, tras comprobar que el imán no atrae al tubo de metal, lo dejamos caer por su interior. Es sorprendente la lentitud con la que desciende. Mirando por la parte superior del tubo veremos que el imán baja lentamente, como flotando. Y eso es lo que ocurre; durante su caída, el imán genera una corriente inducida a lo largo del tubo de cobre, que a su vez provoca un campo magnético opuesto al del imán, por lo que se frena.

La fuerza de repulsión que ejerce el campo inducido sobre el imán no se ficticia: se puede medir. Por ejemplo, si colgamos el tubo de un dinamómetro, veremos que al dejar caer las piezas de hierro, o de esponja, el peso no se altera, porque los objetos no interaccionan con el tubo. Sin embargo, al dejar caer un imán potente el dinamómetro marca un peso mayor: se trata de la fuerza de repulsión entre el imán y el campo inducido generado en su caída.

15.5.05

Frank Wilczek o la inimaginable realidad

Los creativos suelen caracterizarse por su pensamiento lateral o divergente, también en el ámbito de las ciencias. Un buen ejemplo es Frank Wilczek, Nobel de Física de 2004 por sus trabajos en el ámbito de la cromodinámica cuántica (QCD) y la hipótesis de la libertad asintótica.

Poco después de la concesión del Nobel ya expresé en un post mi admiración por el pensamiento divergente de los investigadores de este campo (el artículo, que profundiza en el sorprendente mundo de las partículas elementales, se llama “Nobel de Física... a la creatividad”), pero recientemente tuve la ocasión de conocer personalmente a Wilczek en una conferencia que dio en Madrid y, francamente, superó mis expectativas de estar ante un gran creativo de la ciencia.

A sus 53 años Wilczek, ataviado con un traje negro sobre una camiseta del mismo color decorada con las ecuaciones de Einstein, mostraba un aire juvenil y de “chico malo” al que contribuía una sonrisa estereotipada, que mantenía incluso en el nudo de los desarrollos matemáticos más duros.

De entrada empezó asociando creatividad y ciencia, algo nada habitual, y aclaró que sus planteamientos eran bastante complejos, ¡y vaya si lo eran! Lo difícil no fue su presentación de la ecuación de Dirac, con su correspondiente aparato matemático, sino sus sorprendentes visiones del espacio y del tiempo.

Para Wilczek el espacio y el tiempo están relacionados, y la realidad es inimaginable. El universo es mucho más extraño y complejo de lo que uno puede asimilar. Un detalle de esa complejidad es que la materia ordinaria, de la que están hechas las cosas que conocemos y nosotros mismos, constituye tan solo un cinco por ciento del universo. El resto es materia oscura, que contribuye a la gravedad, pero que desconocemos. El tiempo no transcurre: simplemente es. No tiene principio y final; “forma parte del universo de forma indivisible y no se puede cortar como si fuera una salchicha.”

A pesar de la complejidad del universo, Wilczek recordó la opinión de Dirac de que “los científicos tratan de explicar de forma sencilla las cosas más complejas, justo al revés que los poetas”. De ahí la importancia de profundizar en el conocimiento del universo, para poder describir cada vez más cosas con menos leyes. Wilczek se refirió en varios momentos a las fuerzas fuerte, electromagnética y débil, pero eludió la gravitatoria y, quizá para evitar las preguntas en ese sentido, aclaró que la unificación está muy lejos, con un horizonte superior a los treinta años. Todo un jarro de agua fría para los que veíamos próxima la teoría del todo.

Sin embargo, Wilczek se refirió con entusiasmo del nuevo acelerador de partículas que construye el CERN en Ginebra, que nos ayudará a saber qué ocurre a distancias millones de veces inferiores a las mínimas que conocemos hoy. Eso nos permitirá llegar al futuro y al pasado, a los primeros instantes del big bang, incluso a lo que sucedió justo en la enorme contracción anterior al big bang. Detrás de todo ese esfuerzo se esconde la búsqueda de la supersimetría, una teoría que permita explicar el origen de todo, una eterna aspiración de los físicos.

24.4.05

Pues va a ser que sí: “la risa es la mejor medicina”

Según la canción, “salud, dinero y amor” eran los tres requisitos básicos para ser feliz, la condición necesaria que dirían los físicos. Pero ese regusto de los científicos por cambiar las cosas bien establecidas ha puesto las conocidas premisas patas arriba: si te sientes feliz, tendrás más salud y te funcionará mejor el corazón. El estudio no dice nada del dinero, pero todo apunta a que a la gente optimista le van las cosas mejor.

Me refiero al estudio publicado por un grupo de investigadores de la universidad de Londres, coordinados por Jane Wardle, que han comprobado que las personas que se sienten más felices en su día a día tienen niveles más adecuados de marcadores químicos que regulan el organismo y controlan la enfermedad que quienes tienen pocas emociones positivas.

Por ejemplo, la sensación de felicidad afecta a los niveles de cortisol, una hormona del stress. Los niveles altos de cortisol se asocian a problemas de hipertensión y de diabetes del tipo II, lo que significa que la gente más optimista tienen menos riesgo de sufrir problemas cardiovasculares o de padecer enfermedades como la diabetes.

El interés del estudio, publicado en Proceedings of the National Academy of Sciences y extractado por New Scientist, se debe a que pone datos a una intuición que recorría el sentido común: “la risa es la mejor medicina”. Pues se ve que sí, el buen humor es garantía de salud.

Las conclusiones se basan en el estudio realizado sobre 216 voluntarios de mediana edad a quienes se entrevistó en diferentes momentos del día para conocer su nivel emocional, tanto en momentos de trabajo como de ocio, a la vez que se registraba automáticamente el ritmo cardíaco y la presión arterial, y se recogían muestras de saliva para hacer análisis posteriores.

En los hombres, la sensación de felicidad hacía descender los niveles de cortisol y en las mujeres reducía el ritmo cardíaco. Además, los individuos que se sentían más felices tenían niveles más bajos de fibrinógeno, una proteína necesaria para la coagulación de la sangre pero cuyos niveles altos aumentan el riesgo de problemas coronarios.

2.4.05

La caspa, una nueva amenaza para el clima

Al pobre medioambiente le crecen los enanos. Al dióxido de carbono, el metano, el benceno y los clorfluorocarbonos se une ahora... la caspa. Sí, la caspa; esas escamas blancas que insisten en desprenderse cada vez que alguien se pone una prenda oscura.

No me lo invento yo, que es, como explicaré, cosa bien científica. Lo que ocurre es que, como en tantas otras ocasiones, la realidad supera con creces a la ficción. Los dermatólogos no tienen una explicación definitiva para la aparición de la caspa, y muchos creen que en este problema influyen la dieta, la tensión, y los cambios climáticos pero, mira por donde, ahora descubren los científicos que es la caspa la que provoca el cambio climático y no al revés.

Lo ha demostrado Ruprecht Jaenicke, un investigador de la Universidad Mainz de Alemania, que ha presentado las conclusiones de sus estudios nada menos que en el último número de la prestigiosa revista Science. Según Jaenicke, todas las partículas suspendidas en la atmósfera –caspa y escamas de piel incluidas- influyen de algún modo en la radiación que nos llega del Sol y con ello en el clima, por lo que si se pretende luchar contra el cambio climático es necesario conocer todos los ingredientes de la atmósfera: el polvo mineral, las partículas de humo, pero también las partículas celulares y restos proteicos.

El polvo y los humos han sido objeto de gran atención en los últimos años, pero no ocurre lo mismo con las partículas celulares, cuya investigación se suele pasar por alto por infravalorar la importancia de sus posibles efectos. Sin embargo, Jaenicke ha comprobado que estos efectos son mucho mayores de lo que se pensaba. Las partículas de caspa y de piel suspendidas en el aire influyen en la formación de la lluvia, en las nubes, en las precipitaciones...Y así lo ha recogido en el artículo publicado en el número de este mes de abril de Science, con el título Abundance of Cellular Material and Proteins in the Atmosphere.

Según Jaenicke se estima que se desconoce alrededor del cuarenta por ciento de las partículas contenidas en la atmósfera y, por tanto, se necesita profundizar en esta zona oscura. Dentro de ella, las partículas celulares (caspa y restos de piel) son relevantes, y funcionan como núcleos de condensación de las nubes, un proceso necesario para que se inicien las precipitaciones. Por tanto, influyen en el clima.

Jaenicke no plantea soluciones al problema de la caspa, y es que no debe ser fácil. Es sabido que la caspa y los restos de piel son el maná de los ácaros que viven en los colchones y en las alfombras, esperando con la boca abierta a que les llegue esa lluvia de escamas de restos celulares. Pero obviamente, agrandar los ejércitos de estos alienígenas de ocho patas no parece una solución atractiva.

Y es que la ciencia no tiene siempre soluciones, aunque bien llevada facilita la comunicación interpersonal. Por ejemplo, un ciudadano avisado de la repercusión del metano como gas de intenso efecto invernadero y de la elevada presencia de este gas en las ventosidades de rumiantes y de humanos (perdón por el posible solapamiento) ya no tiene por qué contener la respiración heroicamente cuando viaja en el metro; eso se acabó. Como iniciado en ciencia podrá pedir finamente:
“Tenga la bondad de controlar sus ventosidades para no incrementar la temperatura media planetaria”.
Y no digamos cuando encuentre a un individuo rascándose despreocupadamente sin reparar en las consecuencias de su acto:
“¡Desgraciado! ¿No se da cuenta de que las células muertas que usted lanza a la atmósfera actuarán como núcleos de condensación de nubes que alteran los ciclos hídricos?”
Y por supuesto, se acabó lo de hablar del tiempo en el ascensor cuando coincidimos con el casposo del séptimo mientras amenaza con arruinar nuestro traje de fiesta. Quedará más oportuna, a la vez que didáctica, una fina sugerencia del tipo:
“Vecino, haga el favor de ponerse una loción anticaspa, que acabará usted por fundir los casquetes polares”.
Claro, que hay que confiar en que no se haga un lío con lo de los casquetes.

Y lo normal será que el interfecto, si ha cursado la nueva materia de formación cívica, nos agradezca cumplidamente nuestra lección de ciencias. Y es que con la ciencia la convivencia mejora, aunque San Segundo siga escatimando horas de ciencias en el nuevo currículo...

6.3.05

Una lección de modestia: nuestro futuro está escrito en los genes de una mosca

Ginés Morata, bioquímico español, acaba de recibir el Premio México de Ciencia y Tecnología como reconocimiento a su trayectoria en el campo de la biología del desarrollo, un galardón que se suma a otras dos grandes distinciones que se conceden a la investigación en España: el Premio Nacional «Santiago Ramón y Cajal» y el Rey Jaime I.

Tenía varias referencias de Ginés Morata, pero no lo conocí personalmente hasta el pasado mes, aprovechando que Morata impartía un ciclo de conferencias sobre la biología del desarrollo. Sus finas observaciones fueron todo un torpedo en la línea de flotación de la autoestima de la especie humana: compartimos casi por completo el mapa genético de la modesta mosca del vinagre, hasta el punto de que muchas enfermedades genéticas se pueden estudiar en ese organismo tan próximo a nosotros, que es un auténtico laboratorio para el dolor humano. No es necesario decir cómo queda en este contexto el fundamento genético de las razas humanas: simplemente no se puede hablar de diferencias; la genética nos uniformiza e iguala a todos en nuestra base biológica más esencial. ¡Para que luego nos vengan con errehaches y otras simplezas!

Morata se refirió al espinoso asunto de la duración de la vida. Describió algunos experimentos que prolongaban significativamente la vida de la mosca, y especialmente la de una especie de lombriz. Básicamente había tres vías para prolongar la vida de esta lombriz: en primer lugar, la vía de la insulina; al reducir la cantidad de alimento la producción de insulina descendía y modificaba ciertos mecanismos bioquímicos, que finalmente daban como resultado una mayor longevidad. Lo mismo ocurría cuando se mantenía al animal en un entorno frío, que reducía la velocidad de los procesos vitales, y también cuando eliminaban la actividad sexual y extirpaban las gónadas. Combinando las tres acciones el resultado era espectacular: en términos comparativos con una persona, la vida se prolongaba hasta unos 250 años, y algunos casos llegaba a los 325.

Claro que es una prolongación de vida un tanto incómoda: hambre, frío y abstinencia sexual. Uno de los asistentes planteó con ingenio la pregunta que todos teníamos en la cabeza:
“Profesor, dice usted que la lombriz vive más si no come, si pasa frío y si no copula. ¿Realmente vive más o es que el tiempo se le hace mucho más largo?”
Morata, que no sería la primera vez que se enfrenta a una pregunta similar, le contestó:
“Tal vez esté usted confundiendo la impotencia con la castidad”.


Bueno, fuera de anécdotas, es muy de agradecer la actitud de un científico de prestigio internacional que desciende a la incómoda arena a presentar al ciudadano de a pie, de primera mano, los logros, las esperanzas y los fracasos de la ciencia. Poco puede sorprender que la firma de un científico de la talla de Morata figure entre las del grupo de prestigiosos científicos que firmaron el «Pacto por la Ciencia», una llamada desesperada a los políticos para que la investigación española recupere el estímulo necesario y la inversión necesaria.

Por añadir algo de su biografía, Ginés Morata fue discípulo de García Bellido, y tras varias estancias en centros de Suiza y Reino Unido, regresó al Centro de Biología Molecular, uno de los centros españoles con más prestigio internacional, dependiente del CSIC pero integrado en la Universidad Autónoma de Madrid, del que fue director. Todavía hoy sigue profundizando en sus trabajos sobre la mosca del vinagre. Como científico, se cumple una vez más lo de que “sabe casi todo sobre casi nada”, pero en este caso hay que añadir que como persona desborda ese molde y se proyecta “sobre casi todo”.

5.3.05

El bueno -IBM- y el malo -Microsoft- en la sociedad de la información, en opinión de Castells

Manuel Castells, uno de los gurús de la sociedad de la información, ha criticado a Microsoft por "bloquear el desarrollo" en el sector con sus derechos de propiedad intelectual. "Microsoft bloquea el desarrollo de nuevas fronteras de la expansión de la creatividad en el sector", dijo Castells durante el seminario "La sociedad en red y la economía del conocimiento", organizado por el presidente portugués, Jorge Sampaio, y celebrado en Lisboa. Por el contrario, Castells alabó la opción adoptada por IBM de colaborar con el Gobierno de Brasil para desarrollar un "software" libre, pues considera que la "llave del desarrollo es la creatividad".

Yo estoy de acuerdo con Castells en la defensa de la creatividad y en la necesidad de que los derechos de propiedad intelectual protejan a los verdaderos creadores (autores, ilustradores, editores...), y no tanto a quienes aportan el soporte (fabricantes de papel, de software, de CDs...). Pero sería más cauto al alabar la decisión de IBM, que responde a una estrategia de desgaste de Microsoft más que a un derroche de generosidad.

Me remonto al pasado –unos 25 años atrás- para analizar con esa perspectiva este cambio repentino de IBM. Eran tiempos en que el gigante azul era la referencia única de software y hardware, tiempos en que los clónicos tenían que certificar que eran “compatibles IBM”, aunque curiosamente IBM fabricaba sus ordenadores con dimensiones algo diferentes para que las tarjetas baratas no se pudieran utilizar como repuestos de las “originales”.

Eran tiempos en que los paquetes ofimáticos habituales en los colegios eran la serie IBM Assistant, una suite con procesador (Writing Assistant), base de datos (Filing Assistant), etc. Se distribuía en disquetes de 5,25 pulgadas, muy delicados para el manejo de los escolares. No se podían instalar en un disco duro, de modo que había que manipularlos cada poco tiempo, lo que hacía que se rompiera alguno a diario. IBM permitía un máximo de 5 copias de uno de estos programas, lo que los convertía en un lujo imposible para un centro. Aunque se adquiriera un programa original para cada nuevo equipo, era imposible que el original y las copias aguantaran más de un mes del curso escolar. Los responsables de informática de los centros se pasaban los ratos libres utilizando molestos “copiones” para que no se agotaran las copias disponibles. Todo un tormento, pero IBM se parapetaba en su posición de monopolio e imponía sus condiciones.

Por eso la decisión de Microsoft de lanzar sus primeras versiones de Word, Excel... sin control de copia, se recibió como una liberación. En poco tiempo Microsoft barrió todo rastro de IBM (además de otras marcas de software), a pesar de que sus programas, por ser más visuales, requerían equipos más potentes. Sin duda fue una estrategia milimétricamente pensada para entrar en un mercado cautivo de IBM.

Ahora que la situación es la inversa, que IBM ha perdido el pulso en la fabricación de sus PCs y en la de programas de de usuario final, decide liberar los códigos de su software y entregarlos a la causa del software libre. Y lo mismo está haciendo Sun y otros fabricantes que llamábamos de “cadena de oro”, porque las empresas quedaban atadas a ellos con unos costes disparatados. ¿No es curioso que se unan a la pancarta del software libre cuando han perdido la batalla de la competitividad? ¿Por qué no fueron algo más generosos cuando tenían a sus clientes amarrados a sus licencias? ¿Por qué Microsoft -víctima de la codicia o de la prepotencia- cae ahora en los errores que tanto daño hicieron a IBM en el pasado?

Francamente, estos tiernos corderitos que tiempo atrás repartían dentelladas con dientes de lobo, merecen mi desconfianza, y dudo que hagan mucho bien a la causa del software libre.

6.2.05

Otro informe sobre tendencias en innovación educativa

Un artículo publicado en Elearningeuropa.info resume las conclusiones del informe de Rambøll Management para la Comisión Europea: “Nuevos entornos de aprendizaje en la educación escolar” (documento completo: 8 Mb). En síntesis, el informe, que se refiere al conjunto de los países de la UE, dice que “se detecta un cambio de paradigma, del instructivismo al constructivismo”, a la vez reconoce que la concreción de este nuevo enfoque en la práctica diaria de las escuelas es bastante limitada. El informe concluye que las TIC pueden apoyar o incluso ser el agente transformador de los cambios hacia un nuevo paradigma del aprendizaje, pero que también pueden ser un apoyo para los métodos más tradicionales de enseñanza.

Es algo que ya intuíamos. Curiosamente, el informe concuerda significativamente con las conclusiones del proyecto Tecnología y aprendizaje, también resumido en Elearnineuropa.info, pero en este caso referido solo al contexto español, donde se veía que “el problema principal no es un asunto técnico -tener o no tener ordenador- sino educativo: para qué, cómo y en función de qué concepción de la enseñanza se utiliza.”

Y es que algunas tendencias en la educación no están marcadas por meritorio un afán de mejora, sino por la necesidad que imponen los contextos cambiantes. Por ejemplo, presiona mucho el factor de la comprensividad, que mantiene en el sistema a los alumnos en razón de su edad y no de sus capacidades o intereses, y el factor de la diversidad, que obliga a trabajar de un modo más individualizado, muy distinto del “café para todos” que caracterizaba a la enseñanza tradicional, de corte instructivista. La individualización lleva a centrar la enseñanza en el alumno y a construir el aprendizaje en función de sus características personales (aprendizajes previos, capacidades, intereses, expectativas...). En este sentido el resumen del informe dice que “esta es una característica fundamental del nuevo paradigma de aprendizaje: un enfoque de aprendizaje diferenciado que subraya la necesidad de planificar el aprendizaje de forma diferente para cada alumno y así permitir que los alumnos trabajen de acuerdo con su ritmo y su estilo de aprendizaje individual.”

Sí al cambio y a las TIC, pero cada cosa en su momento

Está claro que existe la necesidad de centrarse más en el aprendiz que en los contenidos del área, y en este sentido las TIC pueden ser especialmente útiles, aunque no sean la clave del cambio educativo. Son herramientas que pueden apoyar los nuevos métodos pedagógicos pero que también pueden reforzar la enseñanza tradicional; es decir, “las TIC suelen ser un catalizador de cambio –afirma el informe- pero no determinan de por sí la dirección de dicho cambio”.

Es esta una idea importante, que puede estar detrás del fracaso de muchas implantaciones de TIC. Cualquier investigador sabe que no es conveniente tocar varias variables críticas a la vez, porque no será posible interpretar las consecuencias. En el caso que nos ocupa, no es razonable cambiar el “paradigma educativo” y simultáneamente introducir las TIC en el aula, porque el resultado será un guirigay incomprensible.

Si lo que se quiere es hacer un cambio educativo en profundidad, constructivista y centrado en el alumno, hágase. Pero sin tocar radicalmente el contexto. Se puede hacer una enseñanza individualizada y ciertamente innovadora con lápiz y papel. ¿Por qué no se prueba y se mide el impacto? Igualmente se puede hacer un cambio significativo en los métodos de enseñanza a través de las TIC, incorporando nuevas herramientas para el docente, que sin duda facilitarán su trabajo. No sería difícil hacer un amplio piloto y medir el impacto también en este caso.

El problema viene cuando se quiere cambiar todo a la vez, sin separar variables. Y lo que es peor, sin que el profesor sepa exactamente qué se espera de él. El fracaso y la confusión están servidas: se atribuirá a las TIC lo que quizá sea debido a un error en el enfoque metodológico o, más probablemente, a un modelo de evaluación inadecuado.

¿Sirven las TIC para aprender?

Ya en el estudio Tecnología y aprendizaje se apreciaba un desajuste entre las bajas expectativas de aprendizaje que tenían tanto profesores como alumnos y los resultados reales de las pruebas, que demostraban que no había diferencias significativas entre el aprendizaje con o sin ordenador. Este nuevo informe abunda en el mismo sentido: “algunos profesores y padres aún tienen sus dudas sobre la capacidad de los nuevos métodos para garantizar que los alumnos que estudien en escuelas donde se utilizan dichos métodos puedan obtener resultados igual de satisfactorios en los exámenes nacionales que los alumnos de escuelas que siguen métodos de aprendizaje tradicionales.” Es decir, hay dudas sobre la capacidad de estos nuevos métodos para promover aprendizaje. ¿Aprenderán lo mismo que los alumnos que siguen métodos de aprendizaje más tradicionales? ¿Desarrollarán las competencias necesarias para acceder a la universidad?

Desgraciadamente, no era el objetivo de este estudio valorar si esas dudas son justificadas, aunque los resultados sugieren que los alumnos pueden aprender lo mismo con los nuevos medios (los alumnos de dos de las escuelas de los seis estudios de casos ocuparon el segundo lugar en la lista comparativa nacional) y algunos profesores creen que las TIC son muy eficaces para trabajar con alumnos con con necesidades especiales.

“Es la evaluación, estúpido”

La clave puede estar en la evaluación. En los modelos experimentales con TIC se suele utilizar una evaluación tradicional, centrada en pruebas concretas sobre los contenidos aprendidos y sin considerar aspectos tales como las capacidades generales que potencialmente pueden mejorar con el uso del ordenador. En este sentido, el informe aclara que “las escuelas sienten la necesidad de evaluar los procesos de aprendizaje de los estudiantes de una forma nueva que se corresponda con los nuevos métodos de aprendizaje y que aún no se refleja en los sistemas actuales de exámenes nacionales de ningún país europeo.” Por otro lado, “los alumnos no reciben ningún reconocimiento por las nuevas competencias adquiridas, incluso aunque estas se consideren importantes para el futuro desarrollo de nuestras sociedades.” Es decir, si no se modifica la evaluación difícilmente se podrá innovar con TIC. Lo que no se evalúa no ofrece capacidad de implementación eficaz ni de mejora.

La conclusión más importante que extraigo de la lectura de este tipo de informes es que las innovaciones no surgen de las TIC, sino de los “ordenadores húmedos” -léase cerebros- de los educadores. La innovación que no venga de la cabeza del profesor, difícilmente surgirá de un programa informático.

Otro hecho que me parece evidente es la necesidad de profundizar en estudios de este tipo, adaptados a la realidad española, antes de embarcar a todo el sistema educativo en un viaje sin rumbo claro.

6.1.05

La ciencia aclara la "neutralidad" de Tintín

¡Feliz año! Llevaba mucho tiempo sin escribir en esta bitácora, y no porque me faltaran motivos para reflexionar ante mi dudosa audiencia, formada por lectores dudosamente interesados en contenidos que probablemente lleguen a sus pantallas gracias al ciego afán de una araña de búsqueda. No era falta de motivos, sino de tiempo, y ya se sabe: “primum vivere, deinde filosofare”.

Pero en fin, aquí estoy de nuevo tras descubrir, con la misma ilusión que la de un infanzón parvulario, los regalos de los Reyes Magos, quienes, dicho sea de paso, son los únicos monarcas que merecen todos mis respetos y a los que gustosamente rindo pleitesía cada seis de enero. Bien por ser razonablemente bueno, bien porque el carbón es un bien escaso, los Reyes me han traído varias cosas: ropa de la que yo nunca hubiera elegido, pero que siempre acaba convirtiéndose en mi preferida, algunos libros y una figura de Tintín, que en este momento me observa con sus pies colgando desde el borde del estante de libros. Obviamente, los Reyes han acertado: sufro esa tintinofilia tan común entre la generación de cuarentones.

Hay quien se empeña en comparar a Tintín con Peter Pan, por esa juventud permanente, pero nada tiene que ver el joven reportero con ese insulso personaje de gorrito verde que no quería crecer. Es cierto que todos nos hemos preguntado por qué Tintín no ha crecido de estatura en sus 75 años de vida, o por qué no le ha crecido la barba, o no le han salido canas. Y a todos nos ha llamado la atención que en sus aventuras nunca manifestara ni la más remota emoción sexual, ni se relacionara con chicas. Y no han faltado los malpensados que veían algo más que ingenuo compañerismo en la costumbre de rodearse de amigos adolescentes en sus aventuras. Pues bien, la ciencia sale ahora en ayuda del reportero para resolver el enigma de su eterna juventud... y de su neutralidad sexual.
Destaco esto de “la ciencia” para tranquilizar al lector que ya empezara a lamentar haber llegado hasta aquí, alimentando la sospecha de estar ante una reflexión superficial, incluso frívola. Nada de eso. El professor Claude Cyr, de la Facultad de Medicina de la Universidad de Sherbrooke en Québec, ha hecho un detenido estudio de las posibles causas de la eterna juventud de Tintín –con la ayuda, eso sí, de sus hijos Antoine y Louis-Olivier- y, pásmense, la ha encontrado. El sesudo informe ha sido publicado en el boletín de diciembre de la prestigiosa revista de la Canadian Medical Association, bajo el “sugerente” título: "Acquired growth hormone deficiency and hypogonadotropic hypogonadism in a subject with repeated head trauma, or Tintin goes to the neurologist". Cyr concluye en su artículo que la juventud de Tintín puede explicarse por los innumerables golpes en la cabeza y pérdidas de conocimiento que el reportero sufrió a lo largo de sus emocionantes aventuras. Tintín perdió el conocimiento en al menos cincuenta ocasiones, lo que desde el punto de vista médico es una causa más que probable de déficit hormonal y de disfunción de la glándula pituitaria.

O sea, que Tintín sufre una enfermedad profesional comparable, pongo por caso, a la silicosis, el saturnismo, la asbestosis o, más en la onda de actualidad, a la que se ensaña con la población de jóvenes inmigrantes, obligados -sin la preparación imprescindible- a encaramarse en los andamios más peligrosos, a cavar en zanjas mal consolidadas o a descender a pozos sin ventilación. La ciencia lo deja claro; como consecuencia de repetidos accidentes traumáticos, “Tintín tenía una deficiencia de la hormona del crecimiento e hipogonadismo hipogonadrotópico (una dolencia de la glándula pituitaria también denominada síndrome de Kallmann)”. Al parecer, esta dolencia permite explicar el retraso en el crecimiento en estatura, el retraso de la pubertad y sobre todo la falta de libido de Tintín. Es decir, la “neutralidad” de Tintín era una mera inhibición del deseo sexual motivada por tantos coscorrones.

Quien haya quedado atónito ante esta "revelación científica" y se defienda con la lengua de Molière, encontrará una entrevista con Cyr en Radio Canada y un breve artículo en Le Monde.