sábado, 1 de octubre de 2016

Producción de materia a partir de la colisión de fotones

En la universidad donde trabajo (UABC, en Mexicali, México) imparto clases de Óptica y Acústica. Cada vez que revisamos el tema sobre la naturaleza de la luz disfruto en sobremanera hablar a mis alumnos sobre el lugar que ocupa la luz visible en el espectro electromagnético. La luz la estudiamos como una sucesión de ondas eléctricas y magnéticas alternantes que se van generando mutuamente ad infinitum a 3 X 108 m/s en el vacío. Conforme se incrementa la frecuencia (o disminuye la longitud de onda) la energía de las ondas electromagnéticas aumenta hasta llegar a la radiación más energética del universo: los rayos gamma. En un sentido opuesto, si la frecuencia disminuye a partir de esta radiación, se obtienen rayos X, después rayos UV de alta energía, hasta llegar a la radiación no ionizante: UV de baja energía, luz visible, radiación infrarroja, microondas, ondas de radio, entre otras. Por otra parte, además de un comportamiento ondulatorio, la radiación electromagnética tiene un comportamiento corpuscular: su unidad fundamental es el fotón. Se pueden tener fotones gamma mil millones de veces más energéticos que los fotones de luz visible, por ejemplo, y billones de veces más energéticos que los fotones de microondas.
Espectro electromagnético.
Hace un par de años numerosos medios de comunicación anunciaron la conversión de luz en materia basándose en el trabajo de los investigadores Steven J. Rose, F. Mackenroth, E. G. Hill y Oliver Pike del Imperial College de Londres. Los científicos propusieron un modelo teórico que permite obtener materia mediante la colisión de fotones gamma. Nuestra experiencia diaria (corroborada por la ciencia) nos indica que la luz “no pesa”, es decir, que los fotones de luz no tienen masa; sin embargo, tienen energía. Lo que los científicos formularon fue una manera de convertir la energía de los fotones en materia. Y claro, para realizar esto ¿qué mejor que partir de unos fotones inmensamente energéticos como los gamma?
Electrones y positrones
En la tercera década del siglo pasado ya habían sido descubiertas las partículas constituyentes del átomo: protón, neutrón y electrón. Las dos primeras partículas conforman el núcleo atómico. Ambas poseen masas similares y cargas eléctricas positiva y neutra, respectivamente. El electrón se encuentra confinado alrededor del núcleo con una masa casi mil veces menor y con una carga negativa de la misma magnitud que la del protón, lo cual permite que los átomos puedan ser eléctricamente neutros al tener el mismo número de electrones y protones. En este mismo periodo, el científico británico Paul Dirac predijo la existencia del positrón: partícula con la misma masa del electrón pero con carga eléctrica positiva. Esta partícula fue detectada por el físico estadounidense Carl D. Anderson al fotografiar huellas de rayos cósmicos en una cámara de niebla. En la actualidad se sabe que el positrón es la anti-partícula del electrón (también existe el antiprotón y por tanto, la antimateria: imagine un positrón alrededor de un antiprotón).
Cuando un electrón y un positrón se encuentran, se aniquilan, produciendo dos fotones gamma con la energía equivalente a sus masas en reposo. Recordemos la célebre ecuación de Albert Einstein: E=moc2, donde E es la energía, mo la masa en reposo y c la velocidad de la luz (3 X 108 m/s), que nos muestra la equivalencia entre la masa y la energía.
Por el mismo tiempo en el que nos hemos situado, específicamente en 1934, los científicos Gregory  Breit y John A. Wheeler propusieron un camino inverso al de la aniquilación: obtener un par electrón/positrón a partir de la “colisión” de dos fotones gamma. A pesar de su aparente simpleza no se cuenta aún con la tecnología suficiente para corroborarlo experimentalmente, más bien se sigue trabajando en modelos, como el propuesto por Oliver Pike y colaboradores, que permitirán, tarde o temprano, obtener la anhelada evidencia.
El colisionador de fotones
La propuesta de los investigadores del Imperial College de Londres se basa precisamente en la producción de pares electrón/positrón mediante el proceso Breit-Wheeler. El colisionador de fotones que ellos diseñaron consiste de un acelerador de electrones (capaz de otorgar a estas partículas velocidades cercanas a la de la luz); de una placa de oro; un “hohlraum” (cavidad en alemán) que es un cilindro hueco que se calienta mediante un láser; generadores de campo magnético, y un sistema de detección de electrones y positrones.
Colisionador de fotones.
El funcionamiento básico del colisionador es como sigue: los electrones acelerados en vacío chocan perpendicularmente con la placa de oro, su desaceleración produce fotones gamma del otro lado de la placa gracias al efecto “bremsstrahlung” o “radiación de frenado” (los electrones se desvían y frenan debido a la atracción electrostática de los núcleos de oro; en esta desaceleración se pierde energía cinética, pero como la ley de la conservación de la energía nos dice que la energía no se crea ni destruye sino sólo se transforma, la energía que se “pierde” se transforma en fotones gamma). Debido a las colisiones se liberan electrones y positrones que se desvían (mediante un campo magnético) para impedir que acompañen a los fotones hacia el hohlraum. Aquí, el cilindro tiene la energía térmica suficiente para ocasionar colisiones fotón-fotón y producir pares electrón-positrón. Finalmente, estas partículas y sus antipartículas se desvían con otro campo magnético al salir del hohlraum para su detección y cuantificación.
La simulación de los experimentos (basados en numerosos y sofisticados cálculos realizados en supercomputadoras) permitió a los investigadores estimar las características óptimas de cada componente del colisionador. En su artículo, publicado en Nature Photonics, mencionan que el colisionador también podría utilizarse para estudiar la dispersión elástica fotón-fotón, las resonancias de quarks (componentes de protones, neutrones y otras partículas) y, con una mayor energía, podría ser posible producir estados hadrónicos finales (partículas constituidas por quarks).
De momento, el investigador Oliver Pike y su equipo, espera que un grupo de científicos experimentales pueda ensamblar físicamente el colisionador y así corroborar experimentalmente el proceso Breit-Wheeler.
Fuente:
O. J. Pike, et al. A photon-photon collider in a vacuum hohlraum. Nature Photonics (1-3) May 2014 (DOI:10.1038/NPHOTON.2014.95)

sábado, 24 de septiembre de 2016

Materiales compuestos: materiales fascinantes

Recuerdo que cuando fui estudiante de ingeniería utilicé a menudo resina poliéster con fibra de vidrio para construir piezas mecánicas que usé en algunos proyectos escolares. La posibilidad de crear piezas mecánicas mediante moldes me llevó, al final, a utilizar este material en mi proyecto terminal de carrera: una silla de montar ergonómica. En dicho proyecto sustituí la estructura interna de madera de una silla de montar por otra de resina con fibra de vidrio. Mi padre, quien es talabartero, le dio el acabado final.

¿Y qué es la “fibra de vidrio”? Seguramente usted ha visto que ciertas carrocerías de automóviles o motocicletas y ciertos juegos grandes para niños tienen por el lado opuesto cierta rugosidad debido a un enmarañado de fibras rígidas. El nombre de este material hace mención a sólo uno de los componentes: fibra de vidrio; el otro componente suele ser resina poliéster.

En la jerga de la ciencia de los materiales, la resina poliéster recibe el nombre de matriz y las fibras de vidrio el de refuerzo o carga. Es decir, la matriz es el volumen donde el refuerzo se dispersa –u orienta– para ofrecer, juntos, mejores propiedades físicas que si permanecieran ambos por separado. La región donde la matriz y la carga tienen contacto recibe el nombre de interface.  Este tipo de materiales recibe el nombre genérico de materiales compuestos o simplemente compuestos.

En la naturaleza

Madera fracturada. Se puede apreciar la dirección de las fibras.
La naturaleza ofrece algunos ejemplos de compuestos: huesos, los cuales consisten de una matriz ósea (hidroxiapatita de calcio) reforzada con fibras de colágeno (proteína que también es abundante en la piel); madera, en donde la lignina (importante en la formación de las paredes celulares de las plantas) es la matriz, y las fibras de celulosa (polisacárido) son el refuerzo; exoesqueletos de ciertos crustáceos, cuya matriz es de quitina (otro polisacárido) y la carga son cristales de carbonato de calcio (CaCO3), y también las conchas de algunos moluscos, donde la matriz se conforma de proteínas y polisacáridos (denominada conquiolina) y el refuerzo son cristales de CaCO3. A través de millones de años de evolución estos compuestos han llegado a la complejidad que poseen, brindando estabilidad mecánica òptima a los organismos que los generan.


En la vida diaria

Muro de adobe.
Desde tiempos primitivos, el hombre se valió de materiales compuestos para construir refugios más duraderos: la mezcla de barro y paja dio lugar a un material más resistente y duradero que el barro simple. De hecho, en nuestros días sobrevive el adobe: bloque de barro, arena y paja (el cual comienza a tener auge en muros de casas del tipo ecológico debido a su elevada inercia térmica). Resulta claro que el barro y la paja al combinarse ofrecen mejores propiedades mecánicas que los dos de manera individual: sería impensable construir paredes sólo de paja o sólo de barro, este último se fracturaría con relativa facilidad.


En la actualidad, un indicador notable sobre la importancia de los compuestos es su utilización en la industria aeroespacial: el avión Boeing 787 utiliza un 50% de compuestos poliméricos por peso; por otra parte, el avión Airbus A350 utiliza casi un 53%. La sustitución de metales, como el aluminio, por compuestos han aligerado el peso de estas aeronaves permitiendo un mayor ahorro de combustible. Lo mismo sucede con los vehículos terrestres comerciales, una parte importante de sus componentes son ahora de compuestos.

Un análisis

Como ya vimos, los compuestos consisten de una matriz, un refuerzo y su interface. El estudio de esta última es fundamental para saber si hay una buena adhesión: la afinidad química entre la matriz y la carga es muy deseable. De igual manera, la distribución y dispersión del refuerzo en el volumen de la matriz es esencial para obtener una mayor homogeneidad. Es decir, si hubiera regiones de la matriz sin refuerzo debido a una mala distribución o dispersión, se fracturarían con mayor facilidad ante algún esfuerzo mecánico.

La geometría y tamaño del refuerzo también son importantes para las propiedades físicas finales del compuesto. Los refuerzos pueden tener forma de fibras, láminas, esferas, y su tamaño puede estar en el orden de los centímetros (paja), milímetros (fibras cerámicas o metálicas), micrómetros (fibras de vidrio o carbono) y nanómetros (nanotubos de carbono, nanopartículas metálicas, entre otros).

Dependiendo de la aplicación del compuesto podemos elegir el tipo de matriz y refuerzo que mejor convenga. Sería importante verificar si la interface entre ellos es la adecuada y cómo podría mejorarse. Después de la selección, hay que realizar la suficiente experimentación: distintos métodos de dispersión de cargas en la matriz, diferentes proporciones refuerzo/matriz, orientación del refuerzo, entre otros factores, para descartar los compuestos que menos cumplan las expectativas y obtener al final el mejor.

En general, se obtienen compuestos para aplicaciones mecánicas pero pueden desarrollarse otros con propósitos eléctricos, es decir, a partir de una matriz aislante podría obtenerse un compuesto hasta cierto punto conductor de la electricidad si los refuerzos son eléctricamente conductores. Para lograr lo es deseable que el refuerzo sea tan diminuto como sea posible.

Nanocompuestos

Como vimos, la interface entre la matriz y el refuerzo es muy importante. Si la carga tiene dimensiones en el orden de los cm, la interface en el compuesto podría tener algunos metros cuadrados; en cambio, algunas cargas, como los nanotubos de carbono (cilindros de grafeno concéntricos) o el grafeno (lámina de carbono de un átomo de espesor) presentan un área descomunal (103 o 104 m2) para la misma cantidad de carga. Es decir, si las dimensiones del refuerzo son del orden nanométrico, se necesitaría una baja proporción carga/matriz debido al incremento de la interface.
Fractura de un compuesto de alúmina (óxido de aluminio) y nanotubos de carbono.

El problema para tan diminuto refuerzo es su dispersión en la matriz: suelen actuar fuerzas electrostáticas o interacciones de Van der Waals en la aglomeración de las nanoestructuras. Para romperla es necesario aplicar mucha energía mecánica/térmica (como la extrusión o la homogenización mediante esfuerzos de cizalla) en presencia de la matriz gelatinizada o fundida, o en presencia del monómero próximo a polimerizar. Quizá el mejor método de dispersión en esta escala es la funcionalización de la superficie del refuerzo con grupos químicos afines a la solución donde se dispersará. La energía mecánica adicional suele proveerla un generador de ultrasonidos, los cuales, mediante la cavitación a micro-escala en la solución, ayuda a separar las nanoestructuras.

Consideraciones finales

En la industria aeroespacial, automotriz y naval se utilizan nanotubos de carbono, nanofibras de carbono y grafeno como refuerzo en resinas, epóxicos y plásticos para fabricar una amplia gama de piezas mecánicas. Asimismo, las nanoarcillas (como la montmorillonita, mineral del grupo de los silicatos) son utilizadas para reforzar polímeros que se utilizan en envases de conserva de alimentos al incrementar su capacidad de barrera hacia ciertos gases como oxígeno y nitrógeno. Por otra parte, algunas nanoestructuras conductoras de la electricidad han permitido el desarrollo de compuestos (de plásticos o concretos) con cierto nivel de conductividad eléctrica que se han utilizado en el apantallamiento electromagnético de equipo electrónico sensible y en la generación de calor mediante la conducción controlada de corriente eléctrica.

Cada día se diseñan compuestos con refuerzos nanométricos más sofisticados –desde un punto de vista físico y químico– lo cual está permitiendo que se apliquen en áreas tecnológicas más especializadas: electrocromismo, músculos artificiales, tintas conductoras, biomateriales, entre otras. La ciencia de los materiales compuestos se mantiene al alza.

lunes, 13 de junio de 2016

¿Daño a los espermatozoides por celulares o móviles?

(Artículo escrito en Recife, Brasil, 2014).
Hace algunas semanas el grupo de los investigadores Jessica A. Adams, Fiona Matheus, y colaboradores, de la Universidad de Exeter (Reino Unido) publicaron un meta-análisis* (estudio en el que se comparan distintas investigaciones con una temática común para obtener conclusiones más generales) en el que establecieron la posibilidad de que la radiación electromagnética de los teléfonos celulares (o móviles) ocasiona daño en la motilidad y vida de los espermatozoides. El supuesto daño se vería potenciado por el hecho de que los hombres llevan normalmente estos dispositivos en los bolsillos del pantalón. Como suele ocurrir, hubo medios de comunicación que, sin mesura alguna, difundieron que la radiación de los móviles daña los espermatozoides sin tomar en cuenta que los resultados no fueron concluyentes.
Las señales de móviles y routers son inofensivas
Las más recientes investigaciones auspiciadas por la Organización Mundial de la Salud (OMS), la Comisión Internacional para la Protección contra las Radiaciones no Ionizantes (ICNIRP, por sus siglas en inglés) y la Agencia Internacional para la Investigación en Cáncer (IARC, por sus siglas en inglés) no han demostrado que la radiación electromagnética (en el orden de los Hz, KHz o MHz) de móviles, routers o cableado eléctrico de casas y edificios sea nociva.
Aunque por motivos precautorios es válido que se siga buscando alguna posible correlación, es importante también que quienes realizan estas investigaciones sean conscientes de que las ondas de radio y las microondas se ubican en la parte mucho menos energética del espectro electromagnético, lo cual las vuelve inofensivas en el nivel de baja intensidad que se utiliza en la cotidianeidad.
La radiación electromagnética
La radiación electromagnética conforma un espectro: ondas de radio, microondas, radiación infrarroja, luz visible, radiación ultravioleta (UV), rayos X y radiación gamma. Conforme la longitud de onda disminuye (distancia entre crestas adyacentes), o aumenta la frecuencia (ciclos por segundo o por metro), la radiación electromagnética es más energética.
De acuerdo con la mecánica cuántica, la radiación electromagnética, además de tener un comportamiento ondulatorio, puede describirse mediante partículas: fotones. Un fotón de microondas (longitud de onda del orden de los cm) es mucho menos energético que un fotón de rayos X (longitud de onda aproximada de 0.1 nanómetros ‒10-9 m‒) o menos aún si lo comparamos a un fotón de rayos gamma (longitud de onda inferior a 0.01 nanómetros).
Espectro electromagnético.
La radiación electromagnética a partir de los rayos UV de alta energía (longitud de onda entre los 50 y los 15 nm) hasta los rayos gamma, es ionizante. Es decir, los fotones de esta región del espectro son capaces de desprender electrones de átomos y moléculas, y romper enlaces químicos. La radiación restante es no ionizante.
Una analogía
Imaginemos lo siguiente: hay una serie de habitaciones contiguas con ventanas que dan hacia la calle las cuales no tienen vidrios pero sí barrotes. En el centro de cada habitación hay una “torre” de fichas de dominó sobre una mesa. Afuera, a lo largo de la acera de enfrente hay personas con proyectiles esféricos de tamaño variable. De pronto, ayudados por pequeñas catapultas, comienzan a lanzar los proyectiles más grandes hacia las habitaciones. Estos se estrellan en las paredes y barrotes de la ventana. Ante el ensordecedor ruido las fichas de dominó comienzan a vibrar un poco. Después, los lanzadores comienzan a arrojar proyectiles más pequeños y más pequeños hasta lograr que algunos logren colarse por entre los barrotes. Unos proyectiles alcanzan la mesa y otros golpean la torre de fichas la cual comienza a sufrir daños importantes. Al final, cuando los proyectiles son diminutos, impactan con violencia una o dos fichas. Tal ataque selectivo provoca que las torres se mantengan pero sin un número importante de fichas.
Analogía habitaciones-células.
Con tal escenario en mente pensemos que la serie de habitaciones representa a células de un tejido (como la piel); que las paredes y ventanas son las membranas de las células, y que la torre de fichas de dominó es el código genético (ADN) del núcleo celular. A su vez, los proyectiles grandes de madera representan los fotones de longitud de onda relativamente grande; entre más pequeños son los proyectiles menor es la longitud de onda de los fotones. La velocidad que alcanzan al ser lanzados representa la intensidad (“luminosidad”) de los fotones, no su energía, puesto que, como vimos, la energía se relaciona directamente con la longitud de onda.
Los fotones con longitud de onda más grande (proyectiles grandes) “impactan” la parte externa de las células más expuestas. En ningún momento pueden "penetrar" la célula y menos aún alcanzar el núcleo celular donde se aloja el ADN (torre de fichas). Lo mismo sucedería para los fotones con longitud de onda menor (proyectiles medianos) como la infrarroja o la luz visible. La energía del “impacto” se disiparía en la superficie en forma de calor; sin embargo, si los fotones fueran de rayos UV de alta energía, tendrían la capacidad de atravesar las capas externas y quizá impactar el núcleo celular (como los primeros proyectiles capaces de atravesar los barrotes). Si los fotones fueran más energéticos aún ‒rayos X o gamma‒, los fotones podrían “atravesar” con facilidad las membranas de las células y del núcleo, e impactarían selectivamente en alguna región de la molécula de ADN (como lo hicieron los proyectiles más pequeños en ciertas piezas de la torre). Esto último podría ocasionar mutaciones en el ADN que podría devenir en cáncer si la célula logra sobrevivir y comienza a dividirse con irregularidad. Estos fotones, capaces de interactuar con las moléculas pertenecen a la radiación ionizante.
Consideraciones finales
Quizá la analogía no es afortunada ante la extrañeza de imaginarnos un proyectil que represente un fotón con una longitud de onda kilométrica (como las ondas de radio) pero nos permite visualizar con claridad que solamente los fotones con una longitud de onda del orden del tamaño de átomos o moléculas son capaces de interactuar con ellas en forma directa.
Además de que la radiación no ionizante no produce ningún efecto en la estructura molecular de las células, podemos añadir que las microondas (radiación electromagnética que utilizan los móviles), es aproximadamente mil veces menos energética que la radiación infrarroja (emisión de calor). Si desde que somos concebidos emitimos esta última radiación y no sufrimos daño por ello, mucho menos aún debería causárnoslo la radiación de microondas en los niveles de intensidad normales de la vida diaria (menor a 0.012 W/m2 ‒como comparación, la potencia de la luz solar que recibe la Tierra es aproximadamente 13.7 W/m2‒). Así que, contestando a la pregunta del título de este artículo: no, los móviles no causan daño ni a los espermatozoides ni a ninguna otra célula de nuestro organismo.

* Jessica Adams et al. Effect of mobile-telephones on sperm quality: A systematic review and meta-analysis. Environment International 70 (2014), 106-112.

martes, 16 de junio de 2015

El Quehacer de la Ciencia

Quizá una definición de ciencia en un mundo con un elevado acceso a la información podría parecer intrascendente. No obstante, el uso desmedido de la palabra «ciencia» y «científico» por empresas que anhelan legitimar sus productos o servicios (como las de la homeopatía, biomagnetismo médico, acupuntura, entre otras), ha contribuido a confundir, desinformar y engañar. El daño podría ser grave si tal información «legitimada» pudiera afectar en forma directa la salud de las personas. Por lo tanto, es fundamental en estos tiempos diferenciar la información científica de la que no es.
Identificando a la ciencia
Debemos tener cuidado en no confundir ciencia con tecnología. Ésta última existió miles de años antes que la ciencia. En tiempos prehistóricos se elaboraban lascas, se practicaba la cocción de los alimentos y se conocía la agricultura, por decir algunos ejemplos. Y aunque en la actualidad observemos que la tecnología se relaciona fuertemente con la ciencia y viceversa (la interacción entre ambas ha permitido la construcción de máquinas, de instrumentos de medición, ordenadores, y sofisticados laboratorios), la tecnología obedece más a la explotación económica de los principios científicos que a la expansión del conocimiento por sí mismo. Una y otra se unen para el progreso científico-tecnológico, mas tienen propósitos distintos.
Origen de la ciencia
Aristóteles (384 - 322 a. C.)
Aunque la ciencia podría rastrearse en civilizaciones tan antiguas como la sumeria, la babilónica o la egipcia, ésta comenzó a conformarse ‒en cierta medida como la conocemos ahora‒ en la antigua Grecia. Esto se debió a que la filosofía, surgida en este lugar, en aras de abordar cuestiones acerca de la existencia, el conocimiento, la verdad, la moral, la belleza y la mente, fue procreando a la ciencia. La filosofía se encargó de hacer las preguntas que, conforme fueron respondiéndose, dio lugar al nacimiento de las distintas ciencias. De hecho, hasta bien entrado el siglo XIX, la sociología fue de las últimas ciencias en desprenderse de ella.
A partir del Renacimiento, la dinámica interna de la ciencia se fue sofisticando de manera tal que, en la actualidad, ésta posee una serie de «filtros» que permite realizar un análisis exhaustivo de los nuevos aportes científicos. Los filtros consisten de un grupo de especialistas ‒científicos de una determinada disciplina‒ que pone a prueba, con todo el rigor posible, la solidez de los resultados de las investigaciones. El conocimiento científico generado se publica en revistas especializadas para su difusión. De esta forma, los resultados obtenidos pueden ser reproducidos en cualquier parte del mundo.
El objeto de estudio en las disciplinas científicas
La dinámica interna de cada disciplina científica (y su objeto de estudio), suele variar en función de que ésta pertenezca a uno de los tres grupos en que se divide la ciencia: las ciencias naturales, las ciencias formales y las ciencias sociales. En el primer grupo podemos encontrar a la física, la química, la biología, por decir algunas; en las ciencias formales se sitúan la matemática, la lógica, la informática y la teoría de sistemas; y al grupo de las ciencias sociales pertenecen la antropología, la economía, la historia, la sociología, entre otras. Esta división de la ciencia es superficial puesto que hay ciencias de un grupo que pueden interactuar fuertemente con disciplinas de los otros grupos.
Efecto Meissner (superconductividad).
Las investigaciones en ciencias naturales, se basan en la observación de fenómenos naturales (la gravedad, la difracción y refracción de la luz, la acidez y alcalinidad de soluciones, entre otros). Cuando la observación es muy refinada o indirecta (orgánulos de las células o distancia y tamaño de los astros), se diseñan y se construyen instrumentos que permiten dicha observación ‒aquí interviene la tecnología‒. Asimismo, se diseñan experimentos que más adelante permiten la generación de modelos científicos descriptivos y predictivos, como en el caso de las leyes físicas conocidas.
Con respecto a las ciencias formales, no hay observación de fenómenos ni experimentación, sino un desarrollo estructurado de proposiciones lógico-matemáticas ‒basadas en axiomas‒ que permite estudiar las propiedades y relaciones de entes abstractos. Como resultado, se obtiene un conjunto de teoremas que otorgan estructura a un campo matemático determinado: álgebra, geometría, topología, lógica, cálculo, teoría de grafos, teoría de sistemas, entre otros. Mediante la investigación, se expanden las fronteras de la matemática en su forma pura o aplicada. Unos de los productos más prácticos de las ciencias formales son los lenguajes de programación ya que éstos se basan en un conjunto consistente de proposiciones lógicas que permiten la resolución de problemas de cómputo (mediante algoritmos).
Por último, en ciencias sociales, el objeto de estudio es el hombre y la cultura. Por ello, estas ciencias también reciben el nombre de humanidades o ciencias humanísticas. Cabe mencionar que hay científicos ‒pertenecientes a los otros dos grupos de ciencias‒ que no consideran ciencias a las humanidades. Esto se debe a que no han sabido reconocer que el objeto de estudio de las humanidades es distinto al de ellos. Por ejemplo, una investigación en historia, conlleva muchas horas de trabajo en archivos (donde es necesario contar con herramientas como la paleografía); revisión bibliográfica; análisis del discurso en función de la época donde se sitúa la investigación; análisis e interpretación de los hechos que aparecen en los documentos; y la escritura del artículo, el cual, tendría que ser revisado por pares para su validación y posterior publicación.
La relación entre las diferentes disciplinas científicas
Trabajo arqueológico (Roma, Italia).
Hay ciencias (no importando el grupo al que pertenecen) que interactúan con intensidad unas con otras. Ejemplo de esto lo podemos ver en la arqueología: ciencia social cuyo objetivo es estudiar las manifestaciones materiales del hombre, logrando así, situarlas en tiempo y espacio. Esta ciencia, para realizar dataciones o análisis de restos materiales, se auxilia de manera significativa de la física, la química o la geología, pero al mismo tiempo, puede servir como ciencia auxiliar en historia, sociología, o economía.
Por otra parte, es bien conocido que dentro de las ciencias naturales existe la fusión de algunas de sus ciencias para dar vida a otras más: bioquímica, biofísica y fisicoquímica, por ejemplo. Quizá una de las disciplinas científicas más nuevas sea la astrobiología, que estudia la existencia y origen de la vida en el Universo.
En cuanto a las ciencias formales, éstas auxilian al resto otorgándoles una estructura lógico-formal que les permite la creación de modelos apropiados que puedan explicar los fenómenos (sociales o naturales) bajo estudio. Quizá la ciencia que más se apoya en las matemáticas sea la física. De hecho, existe la física teórica, la cual se estructura con una formalidad lógica tal, que bien podría estar dentro de las ciencias formales.
Consideraciones finales
Es de vital importancia comprender que la ciencia se construye con rigor; que cada trabajo que pretenda ser científico debe pasar por una serie de revisiones ‒realizadas por especialistas del respectivo campo de conocimiento‒ que lo validan como científico sólo si cumple ciertas condiciones: que si es un trabajo experimental, entonces los resultados deben ser reproducibles; que si es un aporte histórico, entonces éste debe validarse por un comité de científicos en historia; que si es un descubrimiento astronómico, entonces deben corroborarse las observaciones por otros astrónomos; que si se trata de un nuevo fármaco, entonces éste debe probarse exhaustivamente según los estándares médicos internacionales; y así sucesivamente con cada disciplina científica.

Por lo tanto, cada vez que obtengamos información que se adjetive como científica, debemos cerciorarnos si ésta posee fuentes o bibliografía confiables (artículos académicos). Si no cumple con lo anterior, la información caería dentro de la pseudociencia, charlatanería o superstición. Es muy importante tener cuidado. Verifiquemos siempre las fuentes de cualquier contenido. Sólo así estaremos cultivando una cultura científica, tan necesaria en nuestra sociedad.

miércoles, 10 de junio de 2015

Julián Carrillo: el científico musical

Al escuchar música de Johann S. Bach, Mozart o Tchaikovsky ‒por mencionar algunos de los más geniales compositores‒ o ciertas bellas piezas de música popular, podemos percibir una secuencia rítmica de sonidos y silencios con tal armonía, que nos resulta muy grata al oído. A través de los siglos, por lo menos en Occidente, hemos estado imbuidos en música basada en las siete notas de la escala heptatónica de los antiguos griegos. Quizá tal circunstancia nos provoque, hasta cierto punto, dificultad para disfrutar música de otros sistemas musicales, como el oriental, el de algunas regiones de Europa del este ‒Hungría o Rusia‒, o el de Medio Oriente.
Partitura autógrafa de J. S. Bach
Los sonidos estandarizados del sistema musical occidental: el pitagórico, primero, y después el temperado ‒comenzado a utilizar por J. S. Bach‒ fueron elegidos en forma arbitraria pero basados en el hecho físico de que dos sonidos tocados simultáneamente resultan agradables cuando el cociente entre sus frecuencias es un número entero (cabe mencionar, que en ambos sistemas hay cierto error en las frecuencias de los tonos). La elección de los tonos intermedios resultaron ser doce ‒tomando en cuenta los semitonos‒ para dar lugar a una octava, que es la distancia entre un tono y el siguiente (con el doble ‒o la mitad, si se baja en la escala‒ de frecuencia). Los sonidos producidos fuera del sistema musical clásico se debe, bien a la desafinación o a la peculiaridad propia de los instrumentos (violín, cello o bajo), o a una configuración acústica no convencional.
En el umbral entre los siglos XIX y XX, algunos músicos se percataron de que podían crear otros sonidos bien diferenciados a partir de la división sistemática de una cuerda (como la del violín). Al provenir éstos de intervalos entre ciertos tonos, se propuso que como los ‘dividían’ o ‘atomizaban’, debían adquirir el nombre de ‘microtonos’. Más adelante, al desarrollarse este campo musical adquirió el nombre de microtonalismo.
El microtonalismo o la atomización de la octava
Julián Carrillo
Dentro del microtonalismo formal, el compositor mexicano Julián Carrillo (Ahualulco, San Luis Potosí, 1875 – Cd. de México, 1965) fue uno de los pioneros y promotores más destacados. En 1895, siendo estudiante de música, vio en clase la ‘Ley de divisiones de cuerdas’ la cual dice que si una cuerda se divide en dos segmentos, cada uno sonará como la octava; si se divide en tres, sonará como la quinta, y así sucesivamente. Estando ya en casa, el joven Carrillo realizó un experimento: colocó la hoja de una navaja en el punto exacto entre las notas sol y la en la cuerda de su violín, y obtuvo dieciséis tonos bien diferenciados. A partir de ese momento, Julián Carrillo se volcaría durante toda su vida a investigar sobre los microtonos. Al intervalo de un dieciseisavo de tono le nombró Sonido 13 porque los tonos totales de una octava son doce. Al utilizar dieciseisavos de tono, pudo diferenciar 96 sonidos por octava (aunque en realidad logró reconocer 4640 sonidos distintos). Más adelante, el compositor amplió el nombre de Sonido 13 para todo su sistema microtonal.
Julián Carrillo codificó su sistema microtonal en una escritura que pudiera facilitar su aprendizaje y posterior interpretación. Dándose cuenta de la necesidad de tener instrumentos adecuados para sus composiciones, diseñó pianos valiéndose de sus cada vez más profundos conocimientos en física y matemáticas. En 1940 patentó 15 pianos ‘metamorfoseados’ para cada intervalo de tono (desde tonos enteros hasta dieciseisavos de tono). En 1958, ya con los pianos construidos, los presentó en la exposición mundial de Bruselas, donde fue galardonado con la medalla de oro. También construyó arpas, flautas, violoncellos y guitarras adecuados al sistema microtonal. En 1947, Julián Carrillo estableció la tesis acerca de dividir la cuerda por medio un corte o un nodo, donde éste último no establece el microtono exacto ya que reduce la longitud de la cuerda. Al parecer, sus investigaciones autofinanciadas le valieron la nominación al premio Nobel de Física en 1950 (el galardonado de ese año fue el científico británico Cecil Frank Powell por el desarrollo de un sistema de detección de procesos nucleares).
Representación de los tonos en una octava y su equivalencia en el sonido 13.

Sonido 13, ¿revolución musical?
Julián Carrillo estaba convencido de que el Sonido 13, sería una revolución musical1. Creyó que la rigurosa correspondencia entre las matemáticas y la física en la producción de notas musicales, junto con una notación musical extraordinariamente didáctica, iban a dar una mayor consistencia a la teoría musical, lo cual derivaría en una mayor creatividad musical basada en insospechadas combinaciones microtonales. Asimismo, pensó que la aceptación y masificación de su sistema musical sería cuestión de algunas décadas, pero en la actualidad, podemos ver que el sistema musical clásico sigue vigorosamente vigente. ¿Qué ocurrió entonces?
Algunos críticos mencionan que el Sonido 13 fue un fracaso; que los propósitos de su creador tenían características mesiánicas2, que si Julián Carrillo se hubiera dedicado a la composición clásica, habría sido un compositor extraordinario; que se obsesionó por un sistema musical sin futuro.
Piano metamorfoseado
Considero que si bien el Sonido 13 no fue la revolución que Julián Carrillo esperaba, él mismo fue un revolucionario de la música por haber evidenciado discrepancias en la música convencional: falta de correspondencia entre la física y las matemáticas. En consecuencia, desarrolló un sistema musical congruente y riguroso. A lo largo de su carrera, cosechó múltiples premios y reconocimientos internacionales que avalaron el alcance de sus ideas (dentro de los cuales destacan la condecoración como Caballero de la legión de Honor en Francia, en 1956, el otorgamiento en Alemania de la Gran Cruz de la Orden del Mérito, el premio Sibelius de Finlandia y la nominación al premio Nobel). Asimismo, tuvo seguidores y admiradores en todo el mundo (como el compositor francés Jean-Éttiene Marie y el director de orquesta británico Leopold Stokowsky). Pero si Julián Carrillo fue un revolucionario extraordinario, ¿por qué su sistema musical no trascendió como él lo esperaba?
Una mente científica
Cuando se detecta cierta discrepancia en una teoría científica (sobre todo en las ciencias naturales), se hace un gran esfuerzo por tratar de ajustarla a los nuevos resultados. Si esto no es posible, la teoría podría abandonarse para que otra, más general y sólida, pueda explicarlos totalmente. Sin duda, Julián Carrillo tenía una mente de científico: pudo reconocer discrepancias en el sistema musical clásico y trató de eludirlas desarrollando otro sistema musical más riguroso y general. El problema fue que no tuvo el impacto global proyectado. En ciencias, un hallazgo comparable a lo que hizo Carrillo, habría cambiado con profundidad los cimientos científicos. Pero la música no es una ciencia, es un arte sustentado en subjetividades.
La música, como cualquier otra actividad artística, es un lenguaje en el que se describe la sociedad en cierto tiempo y espacio: los cambios o ismos en el arte están íntimamente ligados a los cambios sociales que son incuantificables desde un enfoque científico objetivo. No es muy difícil entender cómo un proyecto musical, como el del Sonido 13, con un gran componente de objetividad, se haya diluido en un mar de subjetividades estéticas. En la actualidad, este sistema musical sigue cultivándose mas sólo como uno de muchos otros estilos musicales existentes.
Consideraciones finales
Con respecto a las críticas a Julián Carrillo, su visión ‘mesiánica’ se desmonta al entender el enfoque científico que él utilizó ante una discrepancia del sistema musical clásico. Y sí, sin duda habría sido un extraordinario compositor clásico (su talento fue muy reconocido desde su juventud) pero su mente inquieta, podríamos decir «renacentista», no se habría conformado sólo con ello. Julián Carrillo, necesitaba experimentar, diseñar y crear en contra de las convencionalidades que él percibía limitadas y erróneas.
Julián Carrillo, además de haber escrito libros de teoría musical, tratados de armonía, de orquestación y de solfeo, compuso obras como, Sonata casi fantasía ‒en cuartos, octavos y dieciseisavos de tono‒, Horizontes ‒poema sinfónico para violín, cello y arpa en cuartos, octavos y dieciseisavos de tono‒, Balbuceos ‒para piano en dieciseisavos de tono‒, entre otras obras. Cabe mencionar que la violoncellista mexicana Jimena Giménez Cacho en 2005-2006 estrenó en México las seis sonatas para violoncello solo, en cuartos de tono, que tuvo como uno de los objetivos principales, la difusión de la música de Julián Carrillo en su propio país, donde es prácticamente un desconocido3.
Sin lugar a dudas, el compositor mexicano Julián Carrillo, fue un artista fuera de serie; una mente renacentista; un músico científico o un científico musical.

Balbuceos para piano metamorfoseado. Julián Carrillo 
Referencias
1. Julián Carrillo. La revolución del Sonido 13, 1934. 


jueves, 4 de junio de 2015

Las falacias del biomagnetismo médico

Últimamente he escuchado mucho sobre el «biomagnetismo médico»: terapia basada en la colocación de imanes en diferentes zonas del cuerpo para tratar diversas enfermedades. Sin duda, está llena de conceptos científicos inconexos que la vuelven un blanco fácil para echar abajo. Fue así que me di a la tarea de buscar fuentes electrónicas que promueven su utilización.

El biomagnetismo médico, como la homeopatía o la acupuntura, es una terapia alternativa que se opone a la medicina basada en evidencias. Mientras buscaba información, me preguntaba ¿qué efecto podría tener el campo magnético generado por un imán en un tejido biológico? Al concluir mi búsqueda, además de obtener una respuesta, quedé sorprendido por la cantidad de contradicciones que «sustentan» a esta técnica «curativa».

Encontré algunas terapias basadas en biomagnetismo muy similares entre sí. Describiré la desarrollada por el médico mexicano Isaac Goiz Durán denominada «Par Biomagnético», quien se basó en algunos trabajos del físico estadounidense Richard Broeringmeyer. Esta terapia postula lo siguiente:

I. El cuerpo humano puede ser tomado como un imán. El polo norte (o negativo) sería el lado izquierdo del cuerpo y el sur (o positivo) el derecho.

II. Estos campos magnéticos, denominados “pares”, por tener dos polos, están en “equilibrio” en el cuerpo humano saludable. Cuando se “desequilibran” aparece la enfermedad.

III. Un nivel energético “normal” (NEN) indica que el organismo se encuentra a un pH cercano a siete (como el del agua). En estas condiciones no se pueden desarrollar microorganismos patógenos.

IV. Cuando los “pares” están “desequilibrados”, en el polo sur (ambiente ácido) se concentrarán virus y hongos. En el norte (ambiente alcalino) harán lo propio bacterias y parásitos.

V. Entre los focos de virus (ambiente ácido) y bacterias (ambiente alcalino) se produce una comunicación a distancia en forma de ondas electromagnéticas o “comunicación de electrones”, denominada biorresonancia magnética, la cual permite una retroalimentación “energética” entre dichos focos produciendo un aumento de microorganismos patógenos y una potenciación en su virulencia.

VI. Basándose en la “ley universal de cargas” la despolarización (es decir, el acto de equilibrar a los “pares”) se conseguirá aplicando un campo magnético de polaridad contraria a la del campo “bioenergético” producido por el organismo enfermo. Es decir, se utilizarían imanes para atraer iones de hidrógeno, o radicales libres de polaridad opuesta, hacia el exterior del organismo.

VII. Si un órgano en el cuerpo tiene pH ácido (polaridad sur) entonces se colocará un imán con polaridad norte para compensar la “carga”. Pero al tenerse “pares”, se debe colocar un imán con polaridad sur en la zona correspondiente. Existen más de 250 “pares” magnéticos bien identificados.

VIII. Todas las enfermedades son producidas por virus, bacterias, hongos y parásitos debido a su proliferación cuando un organismo está en “desequilibrio magnético” (pH ácido y alcalino).

IX. La acidez provocará el acortamiento de una de las piernas del paciente y la alcalinidad provocará su distensión. Esto es visible cuando la persona se acuesta con los pies juntos.

X. En el diagnóstico se utiliza la “respuesta corporal inteligente”. Se le pregunta a la “inteligencia del cuerpo” lo que necesita a través de un diálogo “binario”. A esta forma de obtener respuestas se le llama “kinesiología”. Se acuesta a la persona con los pies juntos. Si las piernas tienen la misma longitud, hay equilibrio energético, si no, hay desequilibrio (casi todos los pacientes están en desequilibrio). Después se le pregunta al “ser superior” de la persona si desea ser ayudado. Para que el “ser superior” responda “sí”, las piernas se igualarán en longitud. Para el “no” las piernas se desemparejarán. Esta forma de comunicación permitirá conocer “el estado” de cada “par” del cuerpo.

XI. Normalmente se colocarán los imanes orientados hacia el polo norte en el lado derecho del cuerpo, y hacia el sur para el izquierdo. Se debe confirmar esta colocación preguntando al “ser superior” del paciente.

XII. El par biomagnético es una terapia “efectiva y real” basada en “conceptos científicos” y sustentada por miles de casos en el mundo de pacientes que han sanado o mejorado de graves enfermedades consideradas antes incurables (cáncer y sida).

Quizá lo primero que habría que preguntar a los terapeutas del «biomagnetismo médico» es, qué entienden por magnetismo. Por lo que leí en las páginas de Internet correspondientes y en algunos blogs, no tienen ni la menor idea. Trataré de explicarlo y rebatiré, en lo posible, los postulados de esta curiosa «terapia».

Como sabemos, la materia está constituida por átomos que a su vez están formados por protones, neutrones, en el núcleo, y electrones, alrededor del núcleo. Los electrones tienen un comportamiento ondulatorio alrededor del núcleo (dualidad onda/partícula). Estas partículas tienen una masa mil veces menor que las partículas del núcleo y tienen una carga eléctrica negativa. El protón por su parte, tiene la misma magnitud de carga eléctrica del electrón aunque positiva, y el neutrón, como su nombre lo indica, es neutro. Por lo tanto existe una fuerza electrostática de atracción entre la carga positiva del núcleo y la carga negativa de la nube electrónica.

Debido a que los electrones se mueven alrededor del núcleo del átomo, cada uno genera un momento angular perpendicular al plano orbital, y su dirección depende del sentido de giro. Como una carga eléctrica en movimiento produce una corriente eléctrica, ésta genera a su vez un campo magnético. Tal dirección del momento angular del electrón es uno de los números cuánticos del átomo que se llama: número cuántico magnético: ml. Un campo magnético externo podría alinear, hasta cierto punto, los campos magnéticos producidos por dichos nanocircuitos eléctricos. Este fenómeno recibe el nombre de cuantización espacial.

Toda la materia del universo tiene como constituyente al electrón, por lo tanto, toda la materia podría ser magnética si todos los momentos angulares de los electrones se alinearan y se sumaran para obtener un campo magnético total. Pero esto no sucede así porque la dirección de los momentos angulares de casi toda la materia es azarosa, es decir, se anulan, dando por resultado un campo magnético total igual a cero. De cualquier manera, si a un trozo de materia se le aplica un campo magnético muy intenso, algunos de sus momentos angulares electrónicos se alinearían y se podría inducir en él un campo magnético de menor intensidad.

Existen materiales, denominados ferromagnéticos, que se caracterizan por tener una parte de sus momentos angulares parcialmente alineados. Estos son: hierro, cobalto, níquel, entre otros. Esta propiedad causa que, cuando se les induce un campo magnético, debido a un campo magnético externo, éste resulta ser intenso. Asimismo, hay materiales que sin necesidad de un campo magnético externo desarrollan un campo magnético propio, como sucede con la magnetita, el cual es un imán natural (posee aún un mayor acoplamiento de momentos angulares que ocasiona tal campo magnético natural).

Hay que añadir que el magnetismo es de naturaleza dipolar: siempre hay dos polos separados por una distancia finita (polos norte y sur). Si se partiera a la mitad un imán de barra, instantáneamente las mitades tendrían su polo norte y su polo sur respectivos (esta propiedad se extiende hasta los campos magnéticos atómicos). Hasta el momento no se ha descubierto el monopolo magnético. Su descubrimiento daría lugar al concepto de carga magnética, tal y como ocurre con la carga eléctrica. Por lo tanto, es incorrecto proponer un campo magnético generado por sólo un polo magnético.

Me parece que con lo anterior es suficiente para rebatir los postulados del «biomagnetismo médico». Comencemos pues.

Mujer en terapia con imanes
 (www.terapiadebiomagnetismo.com)
El cuerpo humano, bajo condiciones ambientales normales, no podría tomarse como un imán porque, como ya vimos, la mayor parte de la materia (tejido biológico en este caso) no genera por sí misma un campo magnético. Si acaso el cerebro humano, siendo un órgano con un gasto energético muy alto, podría generar los campos magnéticos más grandes del cuerpo debido a las señales eléctricas que dan lugar a la comunicación entre las neuronas. La técnica de magnetoencefalografía (MEG) detecta los campos magnéticos producidos que están en el orden de los picoTeslas (10-12 Teslas = 10-8 Gauss, donde Tesla es la unidad de magnetismo en el sistema internacional de unidades y Gauss lo es en el sistema cegesimal de unidades). Es decir, el campo magnético de la Tierra (1 Gauss) sería cien millones de veces mayor que los campos magnéticos cerebrales (como comparación, el campo magnético de los imanes convencionales está en el orden de los 1000 Gauss = 0.1 Teslas).

Un cuerpo humano sólo podría comportarse como un imán si se le aplicara un campo magnético muy intenso (el campo resultante sería inducido). De hecho, ya se ha logrado que algunas ranas leviten gustosamente (creen que están flotando en el agua) debido a la fuerza magnética. A este fenómeno se le denomina diamagnetismo. Así que, bajo las condiciones cotidianas de la vida, nuestros cuerpos no se comportan como imanes. Por lo tanto, hablar de 250 «pares» magnéticos macroscópicos en el cuerpo humano carece de sentido. Aun así, si en un momento dado, existiera un campo magnético en alguna región del cuerpo, su magnitud sería de menos de una mil millonésima parte de la del campo de un imán convencional. De manera evidente, «equilibrar» este campo magnético corporal con el campo de un imán convencional es totalmente absurdo.

Más adelante, hay un postulado que dice que en un ambiente acuoso a un pH de 7.0 no hay desarrollo de microorganismos patógenos. Esto es falso. De hecho, la mayor parte de los organismos patógenos (y no patógenos) se desarrollan alrededor de este valor. Más bien los ambientes ácidos (pH bajo) o alcalinos (pH alto) limitan su proliferación. Tan sólo este argumento echaría por tierra la terapia del biomagnetismo médico.

Por otra parte, los terapeutas del biomagnetismo mencionan que un ambiente ácido (con una proliferación de iones hidrógeno H+) genera un polo sur (positivo) y a su vez el ambiente alcalino genera un polo norte (negativo) del «par magnético». Además, añaden que para equilibrar dicho «par», se debe colocar en el polo sur un imán con polaridad norte y en el polo norte un imán con polaridad sur, el objetivo, dicen, es «retirar» el exceso de «carga» que está produciendo tal desequilibrio. La confusión es mayúscula: los terapeutas confunden un campo magnético con un campo eléctrico. Lo peor es que escriben con orgullo que se están basando en la «ley universal de cargas». Otra vez, los monopolos magnéticos no existen.

Por último, en la sección donde los autores hablan de la «biorresonancia» magnética, explican que los «focos» ácidos y alcalinos del «par» (de axila a axila, por ejemplo) se comunican mediante «ondas electromagnéticas». Si ellos no saben lo que es un imán, menos saben lo que es una onda electromagnética. Peor resulta cuando añaden que los pares también se comunican a distancia mediante «electrones» (¡para que un haz de electrones pudiera transmitir a distancia cierta información, tendría que estar en condiciones de vacío!). Por lo tanto, la «retroalimentación energética entre los focos» y el consiguiente «aumento de microorganismos patógenos y una potenciación en su virulencia» que dicha «retroalimentación» genera es una mezcla alegre y facilona de conceptos científicos tomados de aquí y de allá.

Creo que está de más escribir sobre la manera en que se diagnostica (de hecho, si hubiera comenzado desde aquí, no habría habido necesidad de refutar los primeros postulados).

Este tipo de terapias alternativas sólo engañan a las personas que, quizá con desesperación, buscan curarse de alguna enfermedad. Sus resultados no van más lejos que los de un efecto placebo. Supongo que hay un mercado que genera mucho dinero por el pago de consultas, cursos y terapias. El «biomagnetismo médico» es un fraude, una charlatanería. Como sucede siempre en estos casos, los defensores de esta terapia arguyen que las poderosas corporaciones farmacéuticas no permiten el desarrollo de las terapias alternativas por temor a perder su fuerza económica y su "control" en el mundo, lo cual es una justificación barata y simplista. El deseo compulsivo de estas terapias de legitimarse «científicamente», hace mucho daño porque caricaturiza la medicina basada en evidencias. Además, lo más grave, es que personas enfermas podrían estar tomando este tipo de terapias en lugar de aquella que sí funciona ¡Cuidado con este tipo de terapias!