Economía

Resumen electrónico de EIR, Vol.XXIV, núm. 1

Versión para imprimir

Regrese al inicio

 

Estudios estratégicos

 

La economía de isótopos

por Jonathan Tennenbaum

Prólogo

El tema de este ensayo es un componente crucial de la movilización económica que debe emprenderse en el futuro inmediato, si es que ha de salvarse al mundo de un derrumbe físico y sociopolítico de una gravedad sólo comparable, a escala planetaria, a lo que ocurrió en Europa en el período que llevó el estallido de la “peste negra” en el siglo 14. El problema esencial que aquí se aborda, es cómo superar las consecuencias de la salvaje destrucción a fondo de capacidades industriales y científico–tecnológicas, y del nivel educativo, aptitudes y facultades cognoscitivas de la fuerza laboral, que ha ocurrido en las principales naciones industrializadas tanto de Oriente como de Occidente con las políticas de globalización, desregulación, privatización, “terapia de choque” y de la “sociedad posindustrial” de las últimas décadas. Cualquier programa serio de movilización y reconstrucción económica debe tomar en cuenta el hecho de que el más grande repositorio orgánicamente interconectado de investigación científica del más alto nivel, de mano de obra de técnicos y de tecnología avanzada, y de capacidad industrial en este planeta, se localiza en y alrededor de los sectores nucleares de Estados Unidos, Rusia, Ucrania, Japón, Alemania, Francia, India, China, Sudáfrica, Argentina, Brasil y algunos otros; y en las ramas de la astrofísica, la tecnología espacial, la geología y la biomedicina que están vinculadas de manera más estrecha a la investigación y las aplicaciones de la física nuclear. Por la propia naturaleza de la ciencia nuclear, sus raíces e historia, y las necesidades del mundo en los próximos 50 años, debe cobrar forma específica una movilización del sector nuclear del mundo, como la vanguardia y locomotora de una movilización económica general de las principales naciones del orbe. Luego de hablarlo con Lyndon LaRouche, S. Subbotin, del Instituto Kurchatov, y F. Gareev, del Instituto de Investigaciones Nucleares Conjuntas en Dubna, Rusia, he decidido llamarla la “economía de isótopos”.

* * *

Hace aproximadamente un siglo se demostró de manera experimental que los elementos químicos que se dan de forma natural, cuyo ordenamiento armónico Dimitri Mendeléiev incorporó en su sistema periódico, no eran cuerpos homogéneos, sino más bien mezclas de distintas especies de átomos —isótopos— con comportamientos químicos casi idénticos, pero propiedades físicas muy diferentes. La investigación de esta “nueva dimensionalidad” del sistema periódico y de los procesos subyacentes de transformación de los átomos, a la larga llevó al descubrimiento de la fusión, la fisión y otras reacciones nucleares, a la realización de la primera fisión nuclear de reacción en cadena, y a las primeras armas atómicas durante la Segunda Guerra Mundial. La creación de estos mecanismos dependió de la separación del isótopo puro U–235 del uranio natural, y de la generación artificial, en reactores nucleares, de los primeros kilogramos de plutonio–239: una especie de átomos hasta entonces prácticamente ausentes en el ambiente natural de la Tierra.

Hoy, más de 60 años después de la primera reacción nuclear en cadena producida por el hombre, la producción de energía a gran escala a partir de reacciones de fisión nuclear se ha convertido en una realidad en 30 países. Se conocen aproximadamente 3.000 isótopos diferentes, la mayoría generados de manera artificial, y al presente más de 200 tienen un uso comercial. Los servicios médicos modernos y un sinnúmero de otras actividades vitales de la sociedad moderna serían impensables sin el uso cotidiano de más de cien isótopos radiactivos que se producen en reactores nucleares y aceleradores de partículas. Entre tanto, la creación de armas nucleares cambió profundamente la historia, al definir toda la era de la “Guerra Fría” y crear una situación en la que emprender una guerra a gran escala, de la forma conocida hasta la Segunda Guerra Mundial, equivalía prácticamente a un acto de suicidio. Sin duda, muy pocos hoy, aun entre las personas con una alta educación nominal, tienen conciencia cabal del grado al que las implicaciones de lo que en un principio parecían matices “infinitesimales” en el comportamiento de los elementos químicos han definido nuestro mundo actual.

Una economía de isótopos a gran escala exigirá que dominemos la energía de fusión termonuclear. Toro Europeo Conjunto (o JET), reactor experimental que generó más de 16 megavatios de electricidad en 1997. (Foto: EFDA–JET).

Y, no obstante, las implicaciones de lo que ha puesto en marcha el descubrimiento de la radiactividad y los isótopos, al desarrollar el entendimiento “kepleriano” de Mendeléiev del sistema periódico, van mucho más allá de cualquier cosa que el mundo haya visto hasta ahora.

Como reconocieron Vladimir Vernadsky y otros hace ya un siglo, el descubrimiento de nuevos principios dinámicos que trascienden la química del sistema periódico y colindan estrechamente con los orígenes de nuestro sistema solar y de los propios elementos, implicó desencadenar una revolución fundamental en todos los aspectos de la relación del hombre con la naturaleza. La ciencia ha depositado un nuevo poder en manos del hombre: el poder de generar un “fuego” millones de veces más concentrado que los procesos de combustión química, los cuales han representado un fundamento primordial de la existencia humana civilizada desde el regalo legendario que nos dio Prometeo; un nuevo poder suficiente para impulsar una nave 20 veces alrededor de la tierra con 55 kilogramos de combustible; lo suficiente, en principio, para sustentar a una población humana floreciente muchas veces más grande que la que existe hoy; pero también un poder de crear, en la Tierra, condiciones físicas que de otro modo sólo se encuentran en las estrellas y en el centro de las galaxias; un poder que abre la vía, en el futuro no muy lejano, a la expansión de la actividad humana a todas las regiones internas del sistema solar y, a la larga, más allá.

El dominio incipiente del hombre del poder de transmutar los elementos químicos y de crear nuevos estados de la materia que antes no existían en la Tierra, y tal vez ni siquiera en el universo entero, demuestra una vez más que vivimos en el universo de Platón, no en el de Aristóteles. Éste es un universo en el que los procesos son primordiales, en el que “nada es permanente, sino el cambio mismo”, y en el que, al tratar cosas tales como los átomos y las llamadas partículas elementales, constantemente tenemos que hablar, no de un “esto”, sino de “lo que posee tal cualidad” (como escribió Platón en el Timeo; ver a continuación). Más que en cualquier “estado de fase” previo de la economía física del hombre, el surgimiento de lo que llamo la “economía de isótopos” implica una condición en la que la práctica social necesariamente debe orientarse hacia ideas veraces, hacia los principios universales descubribles que gobiernan el cambio y la evolución del universo, y no en lo primordial hacia los objetos de los sentidos. Esto significa el fin del empirismo y del materialismo.

Semejante revolución tiene implicaciones políticas profundas. Su realización de plano no es compatible con seguir tolerando una organización oligárquica irracional de la sociedad, en la que las decisiones esenciales que conciernen al futuro de las naciones y el destino de toda la humanidad están sujetas a los antojos de un número minúsculo de familias influyentes, en tanto que la vasta mayoría de la humanidad vive en la ignorancia y la servidumbre. La revolución que anunció Vernadsky como la llegada de la noosfera, y que consideró como inseparable de la llegada de una era de poder nuclear, implica una sociedad que vive un concepto prometeico del hombre; significa una sociedad cuya actividad giraría en torno al principio del descubrimiento científico creativo, cual los planetas alrededor de nuestro Sol. Significa una población altamente educada, capaz del autogobierno deliberativo y organizada sobre la base de un entendimiento científico de la relación dinámica entre el individuo creativo soberano, la nación soberana y los intereses de toda la humanidad. En una palabra, es la imagen de la sociedad que Leibniz y el “Prometeo estadounidense” Benjamín Franklin tenían en mente en el diseño original de una república en el Nuevo Mundo. Esta visión del futuro de la humanidad inspiró el enorme optimismo que la gente alrededor del mundo le atribuye a la energía nuclear —“el átomo al servicio del hombre”— de oriente a occidente y de norte a sur.

La guerra del Olimpo contra el progreso

La respuesta de los aspirantes a “dioses del Olimpo” oligárquicos a este desafío fue explícita y salvaje. Desde mediados de los 1960 en adelante se desencadenó una guerra psicológica y política general contra las instituciones de la sociedad industrial y contra la noción misma del progreso científico y tecnológico. El ataque, que se centra en EU, Inglaterra y la Europa Occidental continental, lo anunciaron de antemano con bombo y platillo Bertrand Russell y sus redes, y lo pusieron en práctica prestantes instituciones financieras angloamericanas y agencias de inteligencia allegadas a la monarquía británica y a los círculos oligárquicos del continente europeo. Yace en el origen de la propagación deliberada de la “contracultura” juvenil del rock, las drogas y el sexo, el nuevo movimiento de izquierda, la revolución estudiantil de 1968, la propaganda maltusiana de los Límites al crecimiento del Club de Roma y el movimiento ambientalista “verde” a escala mundial.

Desde mediados de los 1960 ha habido toda una ofensiva contra la noción misma del progreso científico y tecnológico. El libro de 1972 del Club de Roma, Los límites al crecimiento (izq.), fue de gran influencia en esto. El movimiento de LaRouche contraatacó de inmediato con un folleto que circuló ampliamente en las universidades, y luego con el libro de Lyndon H. LaRouche de 1983, No hay límites al crecimiento (der.).

limits to growth

Estas fuerzas escogieron la fuerza nuclear, la encarnación más clara del progreso científico y tecnológico, y la tecnología más decisiva para el desarrollo mundial en el período de la posguerra, como un foco importante de su ofensiva. En paralelo con la intensificación de la campaña de terror antinuclear, se tomaron medidas institucionales para parar la proliferación y avance de la energía nuclear en todo el mundo: el Gobierno de Jimmy Carter empezó el giro de 180 grados para darle marcha atrás a la sabia política del presidente Eisenhower de los “átomos para la paz”. Intentó imponer una virtual moratoria a las exportaciones nucleares hacia los países en vías de desarrollo con el pretexto de la “no proliferación”, se esforzó por desmantelar las capacidades de investigación de fondo del propio EU, y por retrasar o detener, de ser posible, la realización de la fusión controlada como una fuente de energía del futuro. Los ambiciosos programas nucleares de Brasil, Argentina, México y otros países en vías de desarrollo, y la suerte de cooperación norte–sur que ejemplificó el acuerdo nuclear de largo plazo entre Alemania y Brasil, fueron aplastados por la oposición del Gobierno de Carter y sus sucesores. En medio de la histeria antinuclear de los 1980, fraguada por los grandes órganos de difusión, el programa nuclear de Alemania, otrora líder mundial en la exportación y transferencia de tecnología nuclear, fue cancelado, junto con los programas más pequeños, pero cualitativamente significativos, de Suecia, Italia y algunas otras naciones. Con el desplome de la Unión Soviética, y el subsiguiente saqueo y destrucción desaforados de las capacidades científico–tecnológicas e industriales de esa nación, el sector nuclear más grande del mundo, aparte del de EU, casi desapareció, sólo para ser en parte revivido en el período más reciente.

Toda esta destrucción, y más, se la había prometido ya al mundo Bertrand Russell en sus vehementes opúsculos antinucleares de los 1940 y 1950. En 1949 Russell llegó tan lejos como a proponer que se arrojaran bombas atómicas contra la Unión Soviética, en caso de que los soviéticos se rehusaran a someterse a un gobierno mundial con un monopolio absoluto de la tecnología nuclear. El razonamiento esencial de Russell —de que la existencia de naciones de veras soberanas era “demasiado peligrosa” como para tolerarse en una era de armas nucleares— sigue siendo el fundamento para el uso de la llamada “no proliferación” como pretexto para negarle a todas las naciones y pueblos el derecho a disfrutar a plenitud y sin trabas los frutos del progreso científico y tecnológico. Sigue siendo la base de un régimen de “apartheid tecnológico” de facto, dirigido sobre todo contra la mayoría de la humanidad que vive en el llamado Tercer Mundo.

Pero los intentos oligárquicos por extinguir la revolución nuclear empezaron mucho antes del descubrimiento de la fisión en 1934–38. Se descubrieron por sí mismos en la trama de la persecución antisemita contra la católica polaca Marie Curie en Francia, en la oposición acérrima al descubrimiento de Max Planck al terminar el siglo, y en el comportamiento intimidatorio como de mafioso de Niels Bohr y otros hacia Schrödinger y Einstein en las conferencias de Solvay de 1927. Bohr y compañía explícitamente prohibían cualquier clase de pensamiento que entrara en conflicto con la doctrina empirista oculta escogida de la “complementariedad” y el supuesto carácter de suyo estadístico indeterminado de los procesos microfísicos.

En oposición a Einstein, Shrödinger y otros que procuraban conceptualizar el principio superior que subyacía en el aparente carácter discontinuo de los fenómenos cuánticos, Bohr, Max Born, Wolfang Pauli y demás afirmaron de manera arbitraria que la realidad en la escala microfísica ¡intrínsecamente rebasa las facultades conceptuales de la mente humana! Este salvaje ataque explícito al principio de la creatividad científica, apoyado por el dominio oligárquico creciente del financiamiento a la investigación científica, en especial en la estela de la Primera Guerra Mundial, tuvo el obvio propósito subyacente de romper lo que quedaba del espíritu prometeico de la ciencia física (que había resurgido durante el Renacimiento), y de esclavizar a la ciencia a los planes oligárquicos. En la medida que los frutos de la investigación científica eran necesarios por propósitos militares y otros motivos “prácticos”, a los científicos se le permitiría trabajar, pero no pensar de modo en verdad creativo. Esto repetía la táctica que alguna vez habían desplegado Laplace y compañía para aplastar a los círculos de Monge y Carnot, y convertir a la prometeica École Polytechnique en un instrumento de la ofensiva imperial de Napoleón.

En la secuela, la física nuclear teórica se elaboró a manos de un “jardín de niños” de jóvenes científicos de reconocida inteligencia y aptitud, en lo que en gran medida hasta hoy sigue siendo una mezcla ptolomeica de modelos mutuamente contradictorios, formalismos matemáticos y procedimientos de cálculo que pueden ser de gran utilidad e incluso indispensables en ciertas esferas específicas de aplicación —¡tales como fabricar bombas!—, pero no encarna ningún concepto inteligible del universo. No sorprende que en los acontecimientos tormentosos que llevaron al descubrimiento de la fisión nuclear, la llamada “teoría” quedara muy rezagada del trabajo experimental, que era el verdadero “motor” de desarrollo. El descubrimiento mismo de la fisión se reprimió por cuatro años, porque los teóricos consideraban “imposible” ese proceso. El rápido avance subsiguiente de la física y la tecnología nucleares, desde los proyectos de las bombas durante la guerra, hasta incluso la realización de la energía nuclear de uso civil y el vasto complejo de aplicaciones médicas y de otra clase de los isótopos, lo impulsaron en gran medida personas adiestradas en la tradición de la química física, la geoquímica y otros campos relacionados de las ciencias naturales orientados a la industria. Estas personas, ejemplificadas por William Harkins, los Noddack o Vernadsky, con frecuencia despreciaban la sofistería matemática de los teóricos, a los que se había elevado a la talla de “altos sacerdotes de la ciencia”.

Pero el estado de la física nuclear en la actualidad no es menos un producto de las presiones externas enormes impuestas a la ciencia y a muchos de los científicos más brillantes en el marco de los proyectos de la bomba atómica durante la guerra y la subsiguiente Guerra Fría. La subordinación de algunas de las ramas más revolucionarias de la investigación fundamental en las ciencias físicas a los objetivos militares, y la imposición de regímenes estrictos de confidencialidad tanto en Oriente como en Occidente, que impedían el libre intercambio de ideas científicas y resultados experimentales, prácticamente no tuvieron precedente en la historia milenaria de la ciencia. Estas circunstancias tuvieron un efecto devastador en la integridad intelectual de muchos de los científicos más brillantes, y en el desarrollo orgánico de la ciencia como un todo. Aunque la pertinencia militar de ramas científicas avanzadas como la física nuclear hizo que se les dedicaran recursos enormes, el ambiente controlado en el que muchos científicos trabajaban se convirtió en una barrera poderosa al progreso científico fundamental.

terroristas

Terroristas enmascarados atacan una planta nuclear en Alemania en 1986. La histeria antinuclear tuvo éxito en cancelar el programa nuclear de Alemania, que otrora fuera líder mundial en la exportación de tecnología nuclear.

russell

El infame llamado de Bertrand Russell a favor de una guerra nuclear contra la Unión Soviética apareció publicado en The Bulletin of the Atomic Scientist el 1 de octubre de 1946. De estallar pronto la guerra, antes de que Rusia tenga armas nucleares, escribió, Estados Unidos de seguro ganaría, “y la victoria estadounidense sin duda llevaría a un gobierno mundial bajo la hegemonía de Estados Unidos, un desenlace que, por mi parte, recibiría con entusiasmo”. En cuanto a un acuerdo de la ONU para establecer un gobierno mundial, “si Rusia consintiera de buena gana, todo marcharía bien. Si no, fuese necesario ejercer presión, incluso al grado de arriesgarse a una guerra, pues en tal caso es bastante seguro que Rusia accedería. Si Rusia no accede a unirse a la formación de un gobierno internacional, tarde o temprano habrá guerra; por tanto, es prudente usar cualquier grado de presión que pueda resultar necesaria”. (Foto: Biblioteca del Congreso de EU).

Este no fue un mero efecto colateral fortuito. Con las políticas estratégicas que promovieron en un principio Russell, Leo Szilard y otros, que luego vinieron a conocerse como el “equilibrio del terror nuclear” y la “destrucción mutuamente asegurada (o MAD)”, la supresión de avances fundamentales devino cada vez más en un rasgo deliberado de la gestión de la investigación científica. El argumento esencial de la facción de Russell era que una vez que EU y la Unión Soviética tuvieran un número suficiente de ojivas nucleares y sistemas de lanzamiento como para infligir un daño catastrófico a la otra parte, aun después de haber sufrido el primer golpe, se habría alcanzado cierta “estabilidad” en la forma de una mutua disuasión, la cual se mantendría a cualquier costo. Por consiguiente, ambas partes acordarían no tomar ciertas direcciones de investigación y desarrollo que pudieran trastocar las reglas del juego. Sin embargo, esto tuvo como consecuencia necesaria que la posibilidad misma de las revoluciones científicas fundamentales se viera, cada vez más, ¡como una amenaza potencial al equilibrio estratégico y, por tanto, a la seguridad nacional!

Encadenando a Prometeo

Esta visión, de que a Prometeo debía encadenársele en el interés de preservar la estabilidad estratégica, se institucionalizó en ciertos acuerdos a los que llegaron los Gobiernos soviético y estadounidense mediante las conferencias de Pugwash de Bertrand Russell y otras “vías extraoficiales”, que se remontan al período de Jruschov posterior a 1957, y que luego ejemplificó el tratado de Limitación de los Sistemas de Proyectiles Antibalísticos que se negoció con Henry Kissinger. Por ende, se suponía que la competencia entre superpotencias se limitaría a una estrecha gama de direcciones “permitidas” —con cierto número de trampas de ambos bandos, por supuesto—, mientras que al mismo tiempo ambas partes cooperaban para impedir que un tercer país desarrollara capacidades científicas y tecnológicas “peligrosas”. La supresión activa de los avances científicos fundamentales por medios burocráticos y otros, no sólo se aplicaba a la física nuclear y a ramas directamente ligadas a las armas nucleares, sus sistemas de lanzamiento y los posibles medios de defensa contra ellas, sino también a ámbitos revolucionarios de la biofísica (el bioelectromagnetismo) y muchos otros campos de la ciencia.

Estos acuerdos entre los Gobiernos estadounidense y soviético definieron los acontecimientos mundiales de todo el período, hasta el colapso de la Unión Soviética. Sus efectos se extendieron incluso a las aulas escolares. Despejaron el camino, por ejemplo, para las reformas educativas liberales de los 1960 en EU y otros países de la OTAN, que degradaron la función de la “ciencia física dura” en la educación general a favor de las denominadas ciencias sociales, y para el ataque subsiguiente al concepto del progreso científico y tecnológico. Con la fundación del Instituto Internacional de Sistemas de Análisis Aplicados (IIASA) como un proyecto conjunto de los principales elementos de la élite angloamericana y la nomenklatura soviética, salió a relucir el concepto oligárquico subyacente de los viejos arreglos “de condominio” entre ambos bandos: dirigir el mundo mediante métodos intrínsecamente contrarios al impulso prometeico de la ciencia. Muchos en el bando soviético no se percataron de que la eliminación de la Unión Soviética, y en especial de sus potencialidades científico–tecnológicas avanzadas, estaba al principio en la lista de prioridades.

El único intento sustancial por liberar al mundo de estas políticas fue la lucha de Lyndon LaRouche por cambiar de manera fundamental las relaciones estratégicas entre las dos superpotencias nucleares, con centro en un compromiso de mutuo acuerdo tanto para desarrollar como para desplegar sistemas de defensa antibalísticos contra proyectiles, fundados en “nuevos principios físicos” (a veces llamados armas de energía dirigida o de rayos). Esto hubiera eliminado la doctrina de la “destrucción mutuamente asegurada” y, por tanto, el juego entero de Bertrand Russell y Szilard, y al mismo tiempo le hubiera permitido a las dos naciones avanzar hacia una economía “impulsada por la ciencia”, en la que las repercusiones civiles revolucionarias de la investigación de “nuevos principios físicos” recompensaría con creces la inversión en los sistemas de defensa.

Por desgracia, el secretario general soviético Yuri Andrópov rechazó la propuesta que LaRouche había comunicado y explorado en intercambios “extraoficiales” a nombre del Gobierno de Reagan. Seis años después, la Unión Soviética se vino abajo, como LaRouche había advertido que lo haría si se rechazaba su propuesta. La política de destruir la capacidad científico–industrial de fondo de la URSS avanzó a todo galope. Pero con el fin de la Guerra Fría, desde una perspectiva oligárquica, ya no había necesidad de continuar la inversión pública a gran escala en la ciencia y tecnología avanzadas en EU y Europa Occidental. Tampoco había ya ninguna “necesidad” de mantener una base industrial versátil. Se abrieron las compuertas de la desindustrialización y “deslocalización” desaforada de la producción a naciones con “mano de obra barata”, de la mano con el ascenso de una burbuja especulativa gigantesca en el sistema financiero. Para la mayoría de los jóvenes que crecían en las naciones otrora industrializadas, el verdadero progreso científico y tecnológico es, en el mejor de los casos, un recuerdo distante que recibieron de segunda mano.

Hemos llegado al final del ciclo. De no dársele marcha atrás pronto a la destrucción de gran parte de todos los potenciales científico–tecnológicos de la humanidad, la pérdida de mucha de su mano de obra mejor calificada, y la estupefacción de la población en los países otrora industrializados, se condenaría a la economía mundial a un inevitable desplome físico. No hay modo de que las naciones del mundo en vías de desarrollo, entre ellas China e India, con sus océanos de pobres, puedan generar las tecnologías que necesitan para su supervivencia en el largo plazo, sin reactivar la clase de capacidades científicas e industriales en EU, la antigua Unión Soviética y Europa que eran típicas de las primeras décadas del desarrollo de la energía nuclear. El mundo enfrenta una simple alternativa: o emprender una movilización económica, retomando el camino del desarrollo de la “era nuclear” que Vernadsky y otros habían previsto, o recaer en una edad oscura genocida. ¡Hay que liberar a Prometeo! La civilización no puede sobrevivir sin revoluciones científicas.

Un renacimiento nuclear

Al presente el mundo es testigo de las primeras etapas de un renacimiento de la energía nuclear, que no sólo abarca a los principales países en vías de desarrollo como China, India, Sudáfrica, Argentina y Brasil, sino también a Rusia e incluso a naciones occidentales del sector avanzado como EU, que prácticamente habían abandonado sus otrora ambiciosos programas de energía atómica por necias razones ideológicas, hace unos 30 años. Si el mundo no desciende a una era de tinieblas de caos y guerra, se prevé un período de construcción a gran escala de plantas nucleares, aunque sólo sea por la pura escala y rapidez de la expansión de la demanda de fuerza eléctrica y otra, y por la necesidad de renovar grandes segmentos de la capacidad de generación eléctrica que están llegando al final de su vida útil.

No obstante, el mundo en el que vivimos ahora no es el mismo que al momento en que se abortó el desarrollo de la energía nuclear hace tres décadas. Incluso sería imposible ahora que un cometido total de emprender un programa de construcción de plantas nucleares compensara el grave daño que la economía mundial, y la civilización humana en general, han sufrido a consecuencia del sabotaje al desarrollo de la energía nuclear y de la virtual guerra contra la cultura industrial, de la cual la tecnología nuclear era un elemento de vanguardia decisivo. Buena parte de las capacidades científicas y de ingeniería que alguna vez tuvieron EU, Alemania, Rusia, Italia, Suecia y otros países, simplemente ya no existen. Tienen que reconstruirse en un proceso que tomará una generación o más.

Entre tanto, estamos en el umbral de retos enormes que encara la humanidad, mismos que los primeros arquitectos del desarrollo de la energía nuclear habían reconocido hace 50 años en el horizonte del futuro: la necesidad de producir grandes cantidades de agua dulce mediante la desalación u otros medios artificiales; la necesidad de remplazar la combustión de productos de petróleo con una combinación de electricidad y combustibles sintéticos basados en el hidrógeno; la necesidad de aplicar densidades energéticas mucho mayores a la extracción, procesamiento y reciclamiento de materias primas básicas, y más.

Para cumplir con todos estos requisitos, debe emprenderse ahora una nueva fase revolucionaria en el desarrollo de la energía nuclear. Yo la bautizo como la “economía de isótopos”.

¿Qué es la economía de isótopos?

El marco inmediato para el surgimiento de la economía de isótopos es el proceso de transición de la economía física mundial, de la actual función aún dominante de los combustibles fósiles, a la energía nuclear como la base principal de los sistemas mundiales de generación de fuerza, tanto en relación con la generación eléctrica, así como de, cada vez más, calor para procesos industriales y la producción de combustibles sintéticos de hidrógeno que abarquen un porcentaje creciente del consumo total de combustibles químicos. Esta primera etapa del proceso depende de reactores de fisión nuclear, con un acento cada vez mayor en los de alta temperatura (sistemas de neutrones lentos y rápidos refrigerados por gas, así como por metales líquidos) y en un ciclo de combustible integrado, con un reprocesamiento y reciclamiento exhaustivo de materiales fisibles, y el empleo de torio, así como de uranio y plutonio. Las existencias necesarias de reactores de fisión abarcan una amplia gama de diseños diferentes, entre ellos pequeñas unidades modulares fabricadas en serie, así como de tamaño mediano; reactores con diversas optimizaciones para su uso como generadores eléctricos, fuentes de calor industrial, desalación, y producción de hidrógeno y otros combustibles sintéticos; para criar combustible de fisión y transmutar desechos nucleares, para la propulsión de naves, etc. Los reactores que necesitan poca o ninguna supervisión, y que funcionan por períodos muy largos sin reabastecerse de combustible —las llamadas “baterías nucleares”— pueden desempeñar una función importante en las regiones remotas y en vías de desarrollo del mundo.

Esta transición a la energía nuclear como el cimiento de los sistemas energéticos del mundo necesita del fortalecimiento a gran escala de capacidades industriales para la separación de isótopos y el reprocesamiento de materiales nucleares, con un acento en el uso de tecnologías revolucionarias de láseres y plasmas. Dicho fortalecimiento proporciona un trampolín inmediato para que surja la economía de isótopos.

La “economía de isótopos” se caracteriza por la combinación de cuatro aspectos principales:

Primero, la economía de isótopos significa incorporar a la economía toda la serie indeterminada de especies individuales de átomos conocidas como “isótopos”, de los cuales hoy conocemos 3.000, en tanto instrumentos completamente diferenciados de la actividad humana. Así, el sistema conocido de los más de 92 elementos de la tabla periódica de Mendeléiev lo remplazará, en la práctica económica amplia, un “sistema de isótopos” incomparablemente más complejo y multifacético. Al principio, estos avances se concentrarán en un subconjunto de más o menos 1.000 isótopos ahora conocidos con una vida relativa más larga; sin embargo, este número después crecerá, pues los medios están ideados para alargar aun la vida de isótopos de muy corta vida, al modificar o incluso suprimir la radiactividad del núcleo inestable y hacerlos aprovechables en términos económicos, al “sujetarlos” a geometrías físicas convenientes.

Al mismo tiempo, la economía de isótopos ampliará de manera sistemática la serie de los isótopos más allá de los que hoy conocemos, en lo profundo de la gama de los nuevos elementos superpesados (transuránicos) y los isótopos “exóticos” de elementos actuales. Cada una de esas especies constituye una condición singular del universo; cada una posee un haz de características y anomalías únicas en relación con las otras, lo que enriquece la gama de grados de libertad en la evolución de la humanidad y del universo.

Segundo, la forma de utilización económica de los isótopos mismos cambiará de modo radical, al extenderse mucho más allá de los usos ahora imperantes como fuentes de radiación ionizante, como los rastreadores radiactivos, y como herramientas de investigación científica especializada, para enfocarse en aplicaciones de una escala mucho mayor de la “afinación” exquisitamente fina de los procesos subatómicos, tanto en cuanto al dominio inorgánico como con respecto a la función específica de los isótopos en la esfera de los procesos vivos. En las primeras fases de la economía de isótopos, tienen una importancia inmediata las diferencias de masa, y sobre todo las de las propiedades magnéticas del núcleo de los isótopos, que interactúan entre sí y con las estructuras de electrones en su ambiente mediante procesos hoy denominados “interacciones hiperfinas” y de “resonancia magnética nuclear”. Este avance puede comparase de manera útil con la introducción del principio del “bien temperado” en la polifonía vocal en la música, donde cambios pequeños en la entonación hacen que surjan nuevos “entrecruces de voces”, lo que resulta en un poder vastamente ampliado en la comunicación de ideas.

Al explotar en su más amplia extensión las implicaciones de la ambigüedad que surgió en la química con el descubrimiento de diferentes isótopos de un mismo elemento, la humanidad hace accesible una “cardinalidad superior” de potencialidades, incomparablemente más grande que lo que el mero aumento numérico de las especies atómicas explotables antes mencionadas podría sugerir. Si, por ejemplo, sintetizamos una molécula orgánica que tiene cuatro átomos de carbono en posiciones asimétricas, entonces, al elegir para cada “carbono” alguno de sus dos isótopos estables, C–12 o C–13, obtenemos 16 moléculas diferentes con la misma estructura química, pero diferentes propiedades magnéticas de “afinación fina” y otras. Si incluimos el isótopo de larga vida C–14, el número aumenta a 81. Si además hay 5 átomos de hidrógeno en la molécula, entonces, al escoger entre el hidrógeno común y el isótopo estable deuterio, ¡resultan hasta 2.592 moléculas diferentes!

Los “materiales isotópicamente diseñados”, que se sintetizan a partir de isótopos puros o de combinaciones selectas de ellos que poseen propiedades físicas “colectivas” novedosas, comenzarán a remplazar a las clases más primitivas de materiales que se emplean hoy en la actividad humana. Algunos de éstos ya están desarrollándose en la actualidad. Además de sus características térmicas, magnéticas, eléctricas y mecánicas especiales, estos materiales desempeñarán una función esencial en la realización de nuevas formas de energía nuclear, y en la generación y aplicación de radiación coherente de longitud de onda ultracorta, tal como la de los rayos láser gama.

Al mismo tiempo, la humanidad está en el umbral de hacer avances revolucionarios en la biología y la medicina, que están relacionados con el entendimiento de cómo la distinción fundamental entre los procesos vivos y los inertes, que demostraron de la manera más definitiva Luis Pasteur y Vernadsky, se expresa a escala subatómica. Aunque ahora no podemos predecir la forma precisa que cobrará esta revolución, ya sabemos que tendrá mucho que ver con la función específica de los isótopos en los procesos vivos, y llevará a una transformación cualitativa y cuantitativa en el uso de los isótopos, no sólo en la biología y la medicina, sino también en la agricultura y en la gestión de toda la biosfera. Es bastante concebible que, por ejemplo, al alterar y controlar la composición isotópica de la nutrición vegetal, animal y humana de ciertas maneras, la humanidad pueda obtener una variedad de efectos benéficos; y en un futuro no muy lejano se producirán cantidades enormes de sustancias isotópicamente enriquecidas con ese fin.

Tercero, la economía de isótopos empleará la transmutación artificial a gran escala en la generación de varias especies de átomos como materias primas para la producción industrial. Para empezar, esto implica usar reactores de fisión nuclear, junto con el reprocesamiento de todos los productos de la fisión, más y más como generadores de átomos y como máquinas de transmutación, que como simples fuentes de calor y electricidad. Por su propia naturaleza, las reacciones de fisión de núcleos pesados producen una amplia gama de isótopos más ligeros, así como un flujo de neutrones que puede inducir transmutaciones adicionales en el material circundante. Un siguiente paso será añadir las potencialidades de la fusión nuclear, para crear una “economía de fisión y fusión” combinadas, imitando en ciertos aspectos la generación astrofísica de elementos.

Los grandes flujos de neutrones que generan las reacciones de fusión (de deuterio y tritio) permiten ritmos mucho más rápidos de “cría” de combustible para reactores de fisión y de transmutación en general. La producción de neutrones mediante la fragmentación en aceleradores ofrece un tercer método para la generación de átomos a gran escala, que quizás empiece con instalaciones para la transmutación de “desechos” nucleares de alto grado.

En el futuro previsible empezarán a surgir métodos más sofisticados, basados en el control congruente de los procesos nucleares al afinar con precisión la radiación electromagnética y otros medios relacionados. El hombre desarrollará de manera progresiva la capacidad de sintetizar cantidades macroscópicas de átomos y de cualquier especie deseada, cada vez más a su voluntad, y de hacerlo a una escala tal que complemente de modo sustancial, y que en algunos casos incluso sobrepase, las cantidades y calidad de las materias primas disponibles de “fuentes naturales”. Junto con la creación artificial de elementos, la aplicación de plasmas de alta temperatura al procesamiento de minerales, desechos y otros materiales —la llamada “antorcha de fusión”— aumentará con amplitud la gama de los recursos naturales económicamente explotables, y permitirá un virtual reciclamiento del 100% de los materiales usados en la economía.

Cuarto, la economía de isótopos es de suyo “astrofísica” en su naturaleza y orientación cultural. Su mantenimiento y desarrollo dependerá de amplias investigaciones astrofísicas en curso que no pueden realizarse sólo desde la Tierra y las regiones cercanas, sino que exigen una expansión de la actividad humana en toda la región interna del sistema solar. Para dominar los procesos subatómicos para la economía de isótopos en la Tierra, tenemos que aprender cómo funcionan esos procesos en las escalas galácticas del espacio–tiempo, y tenemos que llegar a conocer, mucho mejor que lo que permiten las especulaciones terrestres actuales, la prehistoria de nuestro propio sistema solar y del origen de los elementos que ahí encontramos hoy. Estos requisitos se traducen en la necesidad de erigir grandes redes de observatorios astronómicos espaciales en las órbitas solares, capaces de llevar a cabo medidas interferométricas y relativas de nuestro ambiente galáctico y extragaláctico a una escala como la de la órbita de Marte; además de un programa extraampliado de exploración del propio sistema solar.

Todo esto no puede conseguirse sin establecer una infraestructura logística y de producción a gran escala en el espacio, con acento en la Luna y Marte, capaz de sostener una gran fuerza laboral científico–técnica que viva y trabaje por largos períodos lejos de la Tierra, de manera relativamente autosuficiente. En cambio, es precisamente el “salto cuántico” en la productividad general inherente a los avances tecnológicos de la economía de isótopos, lo que hace factible el viaje rutinario por todo el sistema solar interno y el establecimiento de colonias permanentes en Marte. Los sistemas de propulsión de fusión, por ejemplo, pueden acortar el tiempo de viaje entre la órbita cercana de la Tierra y Marte, de muchos meses, como es necesario con los sistemas de propulsión química actuales, a un par de semanas o menos.

El devenir de la economía de isótopos

Para los lectores que desconocen los avances recientes en la tecnología nuclear relacionada, nuestra caracterización de la economía de isótopos podría parecer una posibilidad muy lejana, que incluso raya en la “ciencia ficción”. En realidad, la economía de isótopos ya está en un proceso de devenir, y muchos de sus aspectos ya existen, de manera más o menos desarrollada, en laboratorios e instalaciones de producción avanzada alrededor del mundo.

La separación de isótopos. La tecnología de separación de isótopos, cuyo progreso lo entorpecieron grandemente los esfuerzos por monopolizar sus aplicaciones militares, ha experimentado avances revolucionarios en los últimos 20 años. Los avances iniciales en los métodos de láser y plasma (AVLIS, SILEX, centrifuga de plasma, ciclotrón de resonancia iónica, etc.) prometen enormes ventajas en comparación con los métodos convencionales. Al mismo tiempo, estos últimos métodos (de centrifugación, difusión, separación electromagnética, difusión gaseosa y térmica) se han refinado más, y su gama de aplicaciones industriales se ha extendido a un número aun mayor de isótopos. Además, el fin de la Guerra Fría liberó el uso civil de grandes capacidades de separación de isótopos antes empleadas en los sectores militares de EU y la antigua Unión Soviética. Esto a su vez ha ampliado enormidades la gama de isótopos por lo general disponibles y reducido su costo, estimulando la búsqueda de nuevas aplicaciones en todos los campos.

La transformación cualitativa en el uso de los isótopos. La demanda y producción de isótopos está creciendo a un ritmo exponencial, en particular con el uso médico de los radioisótopos a la cabeza. Al presente, sólo en EU cada año se realizan más de 10 millones de diagnósticos usando radioisótopos. Al mismo tiempo, está teniendo lugar un salto cualitativo en la gama de aplicaciones de los isótopos puros y enriquecidos en la economía, como lo ejemplifica la muy ampliada función de los isótopos estables y el surgimiento incipiente de un nuevo sector industrial que produce “materiales isotópicamente diseñados” para la fabricación de semiconductores y componentes mecánicos especializados, tales como herramientas de corte en máquinas metalúrgicas. Pero éste es sólo el comienzo de un vasto desarrollo, comparable en importancia económica relativa al avance explosivo de cien años en la industria química, desde mediados del siglo 19.

Los materiales con una afinación isotópica. En este proceso, la función preeminente de la radiactividad en la mayoría de los usos actuales de los isótopos la van complementando de manera gradual otras características relacionadas con la “afinación” exquisitamente fina” de las interacciones nucleares y con las propiedades colectivas de los materiales diseñados a partir de combinaciones de isótopos escogidas de modo específico. La diferenciación entre isótopos de uno y el mismo elemento se vuelve así cada vez más importante en las aplicaciones que no tienen nada que ver directamente con la radiactividad o siquiera, en apariencia, con las llamadas “propiedades nucleares” del isótopo. Cuando se les incorpora a retículas de cristales u otras estructuras moleculares, los núcleos de los diferentes isótopos, al tener masas distintas, oscilan a frecuencias diferentes.

Por estas razones, entre otras, los materiales que se elaboran usando un solo isótopo cuidadosamente separado de un elemento dado, tienen una “afinación” interna diferente y más coherente que la de los elaborados con una mezcla de isótopos; muestran un comportamiento muy diferente. Al presente, por ejemplo, laboratorios de todo el mundo investigan la posibilidad de superar las limitaciones actuales a las densidades de poder y, por tanto, al poder de la computación, de los chips semiconductores, con el uso de un isótopo puro de silicio. Se ha descubierto que las estructuras “isotópicamente puras” de silicio, así como de carbono y de varios otros elementos, poseen una conductividad térmica muy superior a la correspondiente de los materiales “naturales”. Una conductividad térmica más alta acelera el ritmo potencial de disipación de calor en los chips semiconductores, lo que les permite funcionar con un poder superior sin sobrecalentarse. Se ha demostrado que los diamantes “isotópicamente puros” presentan un efecto parecido, lo que abre la posibilidad de aumentar la productividad de varias funciones mecánicas. Se ha establecido que los diamantes hechos de carbono–13 puro son significativamente más duros que los compuestos por la mezcla de isótopos que se da en la naturaleza.

Ver ampliación

La tecnología del láser de separación isotópica mediante vaporización atómica AVLIS se desarrolló en los 1970, y se construyó una planta piloto en el Laboratorio Nacional Lawrence Livermore, donde se demostró con éxito el enriquecimiento de uranio y otros usos isotópicos potenciales en los 1990. Pero el AVLIS fue cancelado, en un ejemplo pasmoso del “valor del accionista”. La ley de Política Energética de EU de 1992 “privatizó” el enriquecimiento de uranio, al transferir la tecnología a la empresa privada USEC, la cual en 1999 decidió cancelar el proyecto AVLIS porque la inversión en el mismo era demasiado riesgosa para los accionistas. La planta piloto se desmanteló. Láser del proyecto AVLIS. (Foto: Laboratorio Nacional Lawrence Livermore).

Las interacciones hiperfinas y los efectos de los isótopos magnéticos. Empero, estas aplicaciones emplean el efecto de las diferencias de masa entre los isótopos, aunque aún no toman en cuenta lo que en realidad es una característica de diferenciación mucho más esencial, sus propiedades magnéticas, las cuales son decisivas en el fenómeno de la resonancia magnética nuclear. Como señalaré en la siguiente sección, en los últimos años se ha abierto un nuevo campo de la química y la biología, en conexión con la demostración experimental de que las llamadas “interacciones hiperfinas”, que involucran al núcleo, desempeñan una función fundamental en todas las células vivas. Los efectos magnéticos nucleares que dependen de los isótopos también cobrarán cada vez mayor importancia en determinar el comportamiento de las materias primas inertes creadas por el hombre, entre ellas de manera más probable nuevas clases de “superconductores a temperatura ambiente”.

Los reactores de fisión como fábricas de átomos. Entre tanto, la importancia económica de los isótopos que generan los aceleradores y los reactores de fisión nuclear, de muchas maneras ¡excede ya la de la electricidad que generan esos mismos reactores! En el futuro previsible los reactores de fisión, en vez de ser más que nada vistos como fuentes de electricidad, al generar isótopos como un subproducto, funcionarán más y más como fábricas de átomos que generan electricidad como subproducto. Las reacciones de fisión tienen la peculiaridad de que, a partir de un solo isótopo pesado (U–235, Pu–239 o Th–232), generan una amplia gama de isótopos diferentes que abarca casi todos los elementos de la tabla periódica. Hoy ya es posible, al “afinar” el espectro de los neutrones y la composición del combustible en un reactor, influenciar a un grado significativo la distribución de los productos de la fisión.

Los desechos nucleares como un “mineral” valioso para la extracción de metales preciosos. Hoy, además de grandes cantidades de radioisótopos útiles y combustibles de fisión reciclables, los reactores de fisión nuclear generan ya grandes cantidades de metales preciosos con una importancia industrial, tales como el paladio, el rodio y el rutenio. La extracción de estos metales a partir de los llamados “desechos nucleares” para su uso económico como catalizadores, en aleaciones especiales y en materiales resistentes a la corrosión, ya ha comprobado ser factible. La cantidad de estos metales que cada año se sintetizan como productos de reacción en los reactores nucleares ahora en funcionamiento en el mundo, si se extrajera del combustible consumido durante el reprocesamiento, equivaldría ya a un porcentaje significativo del volumen total anual que se extrae de la tierra con la minería. Teniendo en cuenta que las concentraciones relativas de muchos metales raros que contiene el combustible que consumen los reactores de cría son decenas de miles, a millones de veces superiores a su contenido promedio en la corteza terrestre, investigadores japoneses declararon hace poco que estos combustibles consumidos son de los “minerales” más valiosos que se conocen hoy.

El reprocesamiento total. La explotación cabal del potencial de la fisión como un generador de átomos comenzará con el “cierre” del ciclo del combustible nuclear, mediante el reprocesamiento químico total del combustible consumido, la separación de isótopos útiles, el reciclamiento de materiales fisibles y la transmutación de especies indeseables mediante el bombardeo con neutrones generados en un acelerador o en reactores especialmente diseñados para la “combustión de desechos nucleares”. Todo esto lo han resuelto en detalle laboratorios nucleares de todo el mundo, y la base tecnológica esencial ya existe.

La transmutación a gran escala mediante aceleradores de partículas. La tecnología de los aceleradores de partículas de alta corriente ha avanzado al grado que la transmutación de cantidades macroscópicas de isótopos mediante la irradiación con neutrones de una fuente animada por un acelerador es ya una posibilidad tecnológica. Muchos laboratorios alrededor del mundo trabajan actualmente en diseños de sistemas de transmutación por aceleradores (STA), como un medio para bregar con el problema de los isótopos radiactivos de larga vida del “desperdicio nuclear”. Un solo STA con un poder de rayo de 20 megavatios (MW) podría transmutar los isótopos de larga vida de 10 plantas nucleares normales en isótopos estables de corta vida, generando al mismo tiempo 800 MW de fuerza térmica. Una tecnología similar podría usarse en otras aplicaciones de transmutación, así como para impulsar reactores nucleares “subcríticos” de varias clases.

Ver ampliación

El Reactor Termonuclear Experimental Internacional (ITER) está ahora en construcción en Cadarache, Francia. Éste será el siguiente paso en la creación de construir el prototipo de una estación que generará 500 MW de energía de fusión.

El advenimiento de la fusión nuclear. El siguiente paso hacia una economía de isótopos a escala total será combinar el potencial de la fusión —que en muchos aspectos complementa el de la fisión— con los procesos de fisión y la transmutación en aceleradores, y al mismo tiempo entrar a una fase de nuevos métodos de transmutación controlada, que ahora están en una fase experimental (ver a continuación). En los últimos diez años la tecnología de fusión nuclear ha progresado a paso firme en múltiples frentes. En 1997 el reactor experimental de fusión JET (Toro Europeo Conjunto), en Culham, Inglaterra, generó más de 16 MW de fuerza mediante reacciones de fusión de varios segundos de duración, a temperaturas de 100 millones de grados centígrados. El Reactor Termonuclear Experimental Internacional (ITER) que ahora se construye en Cadarache, Francia, generará 400 MW de energía de fusión, en pulsos de más de 6 minutos, y el próximo paso es construir el prototipo de una estación de fuerza. Junto con el diseño común del tokamak, ha habido un progreso general importante en los experimentos de fusión, entre ellos el de revestimiento rápido, el de foco de plasma, el de “confinamiento inercial” con láseres, el de rayos de iones y otros.

El enfoque de “la fuerza bruta” en la fusión no es el mejor, pero se acerca al éxito. Contrario a los mitos que por lo común se repiten, la posibilidad de generar grandes cantidades de fuerza mediante reacciones de fusión se ha demostrado desde hace mucho tiempo; a saber, con la explosión de la primera bomba de hidrógeno, hace más de medio siglo. Sin embargo, la bomba de hidrógeno necesita un detonador de fisión de reacción en cadena más pequeño (una pequeña bomba atómica) para elevar una mezcla de isótopos de hidrógeno a las altas densidades y temperaturas necesarias para que ocurran reacciones de fusión en masa. La dificultad esencial de aprovechar la fusión como una fuente de energía para propósitos civiles radica en el reto de generar una gran cantidad de reacciones de fusión de manera eficiente y controlada, sin usar una bomba atómica como detonador. En los últimos 30 años el progreso en la fusión nuclear controlada lo ha retrasado mucho la falta de voluntad política, de una orientación hacia un enfoque de mera ingeniería o de “ciencia aplicada”, más que la realización de descubrimientos fundamentales; la restricción en la consecución de hipótesis experimentales a unas cuantas direcciones seleccionadas; la atmósfera agobiante de la “gran ciencia”, la cual se administra de manera burocrática; etc. No obstante, la acumulación de la perseverante “fuerza bruta” de la física y la ingeniería aplicadas ha puesto al alcance tecnológico un reactor de fusión de primera generación.

Al presente se trabaja en la construcción de un reactor experimental de fusión enorme de prueba, el ITER. El núcleo del ITER es una cámara toroidal que al comienzo se llena con un gas muy ligero, mismo que se transforma en el plasma inicial con una descarga eléctrica inducida por las bobinas de grandes transformadores que rodean la cámara. El plasma luego se calienta con microondas y rayos de partículas neutrales a una temperatura que equivale a más de 100 millones de grados centígrados, y se le inyecta una mezcla adicional de combustible de deuterio y tritio. El reactor emplea una combinación de corrientes que se generan dentro del plasma y los campos magnéticos impuestos desde afuera, lo que crea una suerte de “botella magnética” que contiene al plasma suspendido en la región central de la cámara, y lo aisla de sus paredes con un alto vacío. Cuando entre en funcionamiento, se espera que genere una potencia bruta de 500 MW a partir de reacciones de fusión entre los núcleos de los isótopos de hidrógeno, deuterio y tritio, a temperaturas de más de 100 millones de grados centígrados, por períodos de aproximadamente seis minutos y medio a la vez (el aparato producirá un pulso más o menos cada 30 minutos). Debido a este modo de operación por pulsos y al alto consumo de energía de sus sistemas de calentamiento magnético y de plasma, al ITER no puede considerársele como un prototipo cabal de una futura planta de fusión; sin embargo, se espera que finalmente se establezca la factibilidad práctica de una planta energética semejante, al tiempo que se lleve a un gran número de tecnologías, necesarias para un futuro reactor, a un alto grado de perfección relativa.

El híbrido de fusión y fisión. La distribución de las especies atómicas que se encuentran hoy en el sistema solar, muestra sólidas pruebas al efecto de que los isótopos que encontramos a nuestro alrededor los generó una combinación de procesos de fisión y fusión. De modo que también la propia economía de isótopos venidera se fundará en una sinergia de estos procesos nucleares complementarios. Las primeras encarnaciones de corto plazo de este principio se conocen como los reactores híbridos de fusión, o de fusión y fisión.

La tecnología híbrida aprovecha el hecho de que “las reacciones de fisión son pobres en neutrones, pero ricas en energía, en tanto que las de fusión son ricas en neutrones, pero pobres energéticamente”. Aunque cada reacción de fisión del uranio libera cerca de tres neutrones en promedio, en los reactores de fisión la mayor parte de esos neutrones se consume de nuevo inmediatamente, en parte para mantener el proceso de reacción en cadena de la fisión, y en parte por la absorción en la mezcla compleja de isótopos presente en el núcleo de un reactor de fisión, más lo que se libera al exterior. Por este motivo, los reactores de fisión nuclear funcionan con un equilibrio de neutrones relativamente estricto. Sin embargo, en un reactor de fisión los neutrones que produce la fusión del deuterio y el tritio no se necesitan para mantener el proceso, y el plasma de fusión tampoco contiene una gran cantidad de sustancias que absorban los neutrones; de ahí que estos neutrones estén disponibles para su uso útil en otro lugar. Por otra parte, la fusión de deuterio y tritio libera diez veces menos energía por reacción que la fisión de un núcleo de U–235.

Por consiguiente, el principio de los “híbridos” consiste en usar las reacciones de fusión para producir neutrones, y las de fisión para generar energía. La sinergia funciona como sigue: usamos el flujo de neutrones que genera un plasma de fusión 1) para criar combustible nuclear para los reactores de fisión a partir del U–238 o el torio; 2) para transmutar productos radiactivos de los reactores de fisión; o 3) para hacer que un reactor de fisión funcione de un modo subcrítico. Estas aplicaciones no necesitan que el reactor de fusión produzca un exceso de fuerza. El beneficio energético general viene del lado de la fisión en la ecuación, por así decirlo; de la “combustión” del combustible de fisión que produce el híbrido en reactores de fisión separados, en las reacciones de fisión que ocurren en una capa “subcrítica” anexa o, en el caso de la transmutación de desechos, de la liberación de la energía almacenada en los productos de la fisión radiactiva.

Abandonar el requisito del “equilibrio energético” reduce mucho lo que se demanda del reactor de fusión, poniéndolo al alcance de la clase de diseño y parámetros que ya quedaron demostrados con el reactor europeo JET en Culham, y que mejorarán muchísimo con el reactor ITER que se construye en Francia. Estos reactores, aunque aún funcionan muy por debajo del nivel de equilibrio para la generación de fuerza, ya han alcanzado parámetros que bastan, en principio, para construir sistemas híbridos para la producción (cría) de combustibles de fisión nuclear, la transmutación de desperdicios nucleares a gran escala y la generación de energía con el uso de neutrones generados en reacciones de fusión, que alimenten un reactor de fisión nuclear “subcrítico”.

La antorcha de fusión y la separación de plasma a gran escala. El nivel de dominio tecnológico de los plasmas densos en energía que se logró en el transcurso de desarrollar el reactor de fusión hasta ahora, también posibilita, en principio, realizar las “primeras aproximaciones” al concepto de la llamada antorcha de fusión (o antorcha de plasma de alta temperatura) que inventaron los científicos estadounidenses Bernard Eastlund y William Gough. Al emplear plasmas magnéticamente confinados, las antorchas de fusión, ya sea solas o en combinación con la llamada centrifuga de plasma, podremos en última instancia procesar y separar cualquier material —minerales pobres, desechos, agua de mar o cualquier otra cosa— en las especies atómicas que lo componen, obteniendo isótopos puros a partir de materias básicas arbitrarias. Al límite, esta tecnología permitirá un reciclamiento casi 100% eficaz de los materiales y ampliará la gama explotable de recursos naturales en muchos órdenes de magnitud.

Gracias a que los plasmas pueden tener densidades energéticas casi ilimitadas, y al mismo tiempo manipularse con facilidad mediante corrientes aplicadas, campos magnéticos y microondas, los plasmas se han convertido en un medio de trabajo cada vez más importante en el procesamiento de materiales. Entre las aplicaciones industriales de los plasmas está la producción de acero, la química de plasmas, el tratamiento de superficies, la sedimentación de iones y muchas otras. Pero en el futuro, el uso a gran escala más importante de los plasmas densos en energía, aparte de la generación de energía de fusión, casi de seguro será la “antorcha de fusión”.

Sus inventores originales, Eastlund y Gough, se dieron cuenta de que los plasmas de fusión, con sus altas temperaturas y densidades de fuerza, constituyen una suerte de “solvente universal”: cualquier material conocido, al inyectarse en semejante plasma, instantáneamente se disocia en los electrones y iones de los átomos que lo componen. Una vez que ocurre la disociación, las diferentes especies de iones que componen el plasma mixto que resulta pueden separarse con diversos métodos, ya sea en la región original o depositando el plasma mixto en una cámara de separación.

El método más conocido es el de la acción centrífuga, como lo ejemplifican las clásicas centrífugas de gas que se usan hoy para el enriquecimiento de isótopos de uranio basándose en la ligera diferencia de su masa. En principio los plasmas pueden alcanzar velocidades de rotación órdenes de magnitud superiores a las de aparatos mecánicos. Las centrífugas de plasma experimentales para la separación de isótopos ya se encuentran hoy en funcionamiento. En la práctica, los futuros aparatos de separación de plasma a gran escala emplearán combinaciones de campos eléctricos, magnéticos y electromagnéticos, así como ondas inducidas y el movimiento rotacional de alta velocidad en el plasma mismo, para lograr los resultados deseados. También se usará una variedad de mecanismos en cascada, como ya se hace ahora.

La estabilidad de muchos núcleos puede cambiar dependiendo de su ambiente electrónico. Se ha logrado un descenso en la vida radiactiva media al alojar átomos de berilio–7 en complejos de átomos llamados fullerenos.

Lo más probable es que en la práctica a gran escala, las operaciones de disociación y separación de elementos y de separación de isótopos no se lleven a cabo directamente en un plasma de reacción de fusión, sino en uno derivado de un reactor de fusión hacia cámaras auxiliares, o en uno recién creado alimentado por una fuente externa.

En la actualidad en EU se estudian las primeras aplicaciones del principio de la “antorcha de fusión” como un posible método para bregar con la gran acumulación de materiales radiactivos, resultado de 50 años de producción de armas nucleares, en Hanford y otros lugares. Las primeras antorchas de plasma serán alimentadas desde afuera.

La transmutación nuclear controlada mediante láseres. Los avances de los últimos cinco años en la construcción de poderosos láseres de pulso ultracorto (láseres femtosegundo) y láseres que funcionan en el espectro de los rayos X, hacen ahora posible activar procesos de transmutación nuclear directamente con láseres. Los llamados “láseres femtosegundo de mesa”, aparatos compactos que ahora están disponibles a nivel comercial y que están convirtiéndose en un equipo común en los principales departamentos de física y laboratorios, emplean métodos novedosos de “compresión de pulso” y amplificación para producir pulsos de luz sumamente cortos, del orden de los 10−13 a 10−15 segundos. Algunos de estos láseres pueden alcanzar ahora densidades de fuerza de hasta 1019 vatios por centímetro cuadrado, lo suficiente como para activar reacciones nucleares de rutina mediante la acción de rayos gama que se generan en un material irradiado por el láser. Los campos electromagnéticos que generan estos láseres también pueden usarse para acelerar partículas cargadas a energías suficientes como para desencadenar reacciones nucleares. Así, en la actualidad laboratorios pequeños pueden llevar a cabo trabajo experimental que en el pasado requería ciclotrones gigantescos y otras máquinas aceleradoras de partículas.

Los “láseres de mesa” reproducen, con medios mucho más simples, resultados que antes se obtenían con láseres gigantes tales como el VULCAN del Laboratorio Rutherford Appleton en Inglaterra, y el Petavatio del Laboratorio Lawrence Livermore en California. En 1999, por ejemplo, Livermore indujo la fisión de núcleos de U–238 mediante pulsos láser. Pronto un laboratorio en la Universidad Friedrich Schiller de Jena hizo lo mismo con un láser de mesa. Otros experimentos en el VULCAN demostraron el uso de pulsos láser para la transmutación de isótopos radiactivos de larga vida, tales como el yodo–129 (con una vida media de 15 millones de años), en isótopos de corta vida (en este caso, I–128, con una vida media de sólo 25 minutos). Tales métodos, una vez perfeccionados, proporcionarán un medio eficaz para “desactivar” los desechos radiactivos que se producen en plantas de fisión nuclear, transformándolos en elementos estables no radiactivos.

Laboratorios de todo el mundo compiten hoy por crear fuentes láser con longitudes de onda aun más cortas, avanzando más allá en dirección de los rayos X “más fuertes”. Cada disminución en la longitud de onda amplía la gama y eficacia de los procesos nucleares que pueden generarse de manera directa (con reacciones fotonucleares). Los láseres de rayos gama, que aún no están al alcance inmediato, revolucionarían los métodos experimentales de la física nuclear.

El cambio en las “constantes” de la radiactividad. Prejuicios e ideas equívocas que se introdujeron desde muy temprano en este campo dificultan la enseñanza y la práctica de la física nuclear. Una de las más incapacitantes es la idea preconcebida de que los procesos “dentro” del núcleo atómico constituyen un mundo separado de manera categórica, al que gobiernan entidades misteriosas llamadas “fuerzas fuertes”, y básicamente no interactúan con su entorno excepto a través de actos violentos de “alta energía”, que se considera son de un carácter en esencia estadístico. El término “destructor de átomos” que en un principio se usaba en EU para denotar aceleradores de partículas de alta energía, refleja la persistencia de un concepto simplista tipo Rambo, a pesar de las montañas de pruebas de la afinación exquisitamente “fina” de los procesos nucleares. El prejuicio continúa hoy, aun entre los profesionales, de que procesos tales como la desintegración radiactiva de núcleos prácticamente están más allá del control humano, excepto cuando se somete a los núcleos a fuerzas gigantescas o se les bombardea con partículas de aceleradores de alta energía o reactores nucleares. El ritmo de desintegración radiactiva de un núcleo aún se considera, de manera errónea, como una suerte de constante natural, más que como una función de la geometría física en la que dicho núcleo está inserto.

Esta actitud dogmática entre los profesionales lleva al absurdo concepto equivocado, adoptado como un “hecho” de la política pública por décadas, de que la única forma de tratar los isótopos de larga vida que contienen los “desechos nucleares” ¡es almacenándolos bajo tierra por decenas o cientos de miles de años! Esta noción aún impera en los debates públicos en la actualidad, aunque el mundo profesional hace mucho que reconoció la alternativa de la transmutación a gran escala por medio de aceleradores de partículas o aparatos de fusión, como se mencionó antes. Esto funcionará, pero representa un método primitivo de “fuerza bruta” a remplazar con enfoques mucho más inteligentes, tan pronto como estén disponibles.

Entre tanto, se ha acumulado un mar de pruebas experimentales de la existencia de procesos nucleares de “baja energía” delicadamente afinados, muy distintas de aquéllas sobre las cuales se ha fundado la tecnología nuclear hasta ahora, y cuyo dominio futuro define una vía revolucionaria para desarrollar la economía de isótopos.

Ahora está bien establecido, por ejemplo, que la estabilidad o el tiempo de vida de muchos núcleos puede cambiar por muchos órdenes de magnitud, dependiendo de su ambiente electrónico. Así, por ejemplo, el isótopo disprosio–163 es estable en su forma atómica normal, pero al ionizarse (despojándosele de sus electrones), su núcleo se vuelve inestable. El isótopo de renio, Re–187, tiene una vida media de más de 40 mil millones de años en su forma atómica, pero al ionizarse, se reduce más de mil millones de veces, a menos de 33 años. La ionización completa de un átomo libre es un proceso con un uso muy intenso de energía. Se han logrado disminuciones en la vida radiactiva media más pequeñas, pero aún fáciles de medir, por métodos mucho más “sutiles”: al alojar átomos de berilio–7 en fullerenos (complejos de átomos en nanotubos de carbono), y sólo hasta hace poco, al alojar sodio–22 en metal de paladio, que luego se enfría a una temperatura de 12°K. Los efectos de estos experimentos sólo fueron del orden del 1%, pero 1) refutan el dogma de que los procesos nucleares son “ajenos” a su ambiente, excepto en condiciones de “alta energía”; y 2) en general son congruentes con los resultados de muchos experimentos de “fusión en frío”, que son más difíciles de interpretar, pero presentan una multitud de efectos de transmutación —a veces algunos muy espectaculares— que, como puede demostrarse, no se derivan de la clase acostumbrada de reacciones nucleares de “alta energía”.

La función de los isótopos en los procesos vivos

El aspecto de veras revolucionario de la economía de isótopos yace en las regiones de intersección de los tres grandes dominios experimentales de nuestro universo: el de los procesos manifiestamente inertes, el de los procesos vivos y el de los que dependen de la razón humana creativa. Las pruebas inequívocas de la distinción absoluta entre los principios que gobiernan estos tres dominios las aportaron Vladimir Vernadsky, para el primer y segundo dominios, y Lyndon LaRouche, para el segundo y tercero. Los tres dominios son de un carácter antientrópico.

El rasgo más paradójico y fecundo de esta división estricta nace de la circunstancia de que los principios que subyacen en los tres dominios mencionados, en la medida que son de veras universales, ¡siempre están implícitamente presentes y se coextienden al universo entero! En otras palabras, no tenemos tres universos separados, uno para cada dominio, sino un solo universo multiconexo, en el cual cada cosa que existe (cada singularidad) participa de manera simultánea, pero de formas diferentes, en cada uno de los tres principios distintos (o conjuntos de principios) de acción. El significado queda claro cuando examinamos el caso especial de los isótopos y las reacciones nucleares.

La existencia de una conexión íntima entre las reacciones nucleares, los isótopos y los procesos vivos está profundamente arraigada en la prehistoria de nuestro planeta. Hasta donde sabemos, el gran grueso de las especies atómicas, de las cuales se componen los tejidos de los organismos vivos de este planeta, se generó durante las primeras fases de la evolución de nuestro sistema solar, antes de la formación de la Tierra, y en ese sentido constituye un “fósil” de esa evolución previa. También, hasta donde sabemos —si bien hay algunas opiniones divergentes al respecto—, el sistema solar se originó en una sola entidad protoestelar que era nuestro Sol en una etapa previa de su desarrollo.

Un origen unitario del sistema solar

Antes de pasar a los procesos vivos per se, veamos las más congruentes de las hipótesis disponibles sobre cómo debió ser la evolución previa del sistema solar.

Desde hace un siglo, el biogeoquímico ruso–ucraniano Vladimir I. Vernadsky reconoció que el descubrimiento de nuevos principios dinámicos que trascienden la química del sistema periódico y que están muy ligados al origen de nuestro sistema solar, desencadenarían un revolución en todos los aspectos de la relación del hombre con la naturaleza.

Según la hipótesis de la “fusión polarizada” que plantea LaRouche, la serie de las especies atómicas que se encuentran en el sistema solar hoy se generó, en esencial, in situ, como parte del mismo proceso unitario que llevó a la formación del sistema planetario: el protosol era un objeto que giraba a gran velocidad, del que se “desprendió” un disco de plasma al que luego pasó a “procesar”, mediante una combinación de radiación intensa y poderosas inducciones magnetohidrodinámicas impulsadas por la rápida rotación y el intenso campo magnético del protosol. Esta acción del Sol creó las condiciones para que ocurriera la “fusión polarizada” en el disco; un proceso de fusión en el que, se propone, una polarización magnética muy fuerte de los núcleos, y quizás otros efectos “catalizadores” de la geometría electromagnética establecida en el disco, causaron que el proceso de fusión fuera órdenes de magnitud más eficaz que la fusión “térmica” ordinaria.

Así, el protosol pudo generar toda la gama de elementos e isótopos que hoy encontramos en la Tierra y otras partes del sistema solar (esto incluiría las especies atómicas más pesadas que el hierro en el sistema periódico, que no pudieron haberse generado en las cantidades observadas por la suerte de reacciones de fusión que se pensaba ocurrían en nuestro sol actual. El disco de plasma de estructura magnetohidrodinámica, con su provisión de elementos recién generados, se convirtió luego en una serie de anillos con un orden armónico, que corresponde a la ubicación de las órbitas planetarias como las vemos hoy. Por último, los planetas mismos se condensaron fuera de los anillos.

Por desgracia, la mayoría de los astrofísicos rechazan hoy la noción de un origen unitario del sistema solar, sus elementos y el ordenamiento armónico de sus planetas. En cambio, creen que los elementos más pesados que se encuentran ahora en el sistema solar datan de antes del nacimiento de nuestro Sol actual, y que fueron generados por reacciones nucleares durante una o más explosiones gigantescas de estrellas: las “supernovas”. Qué estrella o estrellas fueron éstas, nadie puede decirlo, porque no se han observado rastros astronómicos de tales procesos explosivos en las cercanías de nuestro sistema solar. Pero hay otra posibilidad, a saber, que las supernovas que los astrónomos de hecho observan de vez en cuando en nuestra galaxia, y que los astrofísicos interpretan como explosiones como de bomba, son en realidad procesos del tipo que LaRouche ha propuesto; y que la supernova generadora de elementos pesados que los astrofísicos dan por sentada, ¡en realidad sólo es una exuberante fase previa en la vida de nuestro propio protosol!

Como sea que se resuelvan estas cuestiones en el futuro, sus implicaciones son las siguientes:

Primero, desde la perspectiva de la prehistoria de nuestro sistema solar, la existencia de la vida en nuestra Tierra está inseparablemente ligada a la de las reacciones nucleares que produjeron las especies atómicas que integran el tejido vivo. En ese sentido, las condiciones materiales para que tuviéramos nuestra biosfera y su evolución orgánica las creó una fase previa de evolución inorgánica, pero antientrópica, del sistema solar: la “nucleosfera”.

Segundo, la vida en la tierra sigue animándola la fuerza nuclear: nuestra biosfera entera vive del Sol, cuyo poder de radiación lo generan reacciones de fusión. Pero la biosfera no sólo está unida a nuestra estrella en términos del flujo bruto de energía de radiación, sino también a través de interacciones magnéticas más sutiles, que causan lo que el investigador ruso A.L. Chizevsky llamó “el eco de la biosfera de la actividad solar”, el cual se refleja en el comportamiento de los microorganismos y otros procesos vivos, así como en el clima.

Luego de establecer así, sin lugar a duda, la relación astrofísica entre los procesos nucleares y la vida en la Tierra, busquemos ahora la relación en el nivel microfísico.

Tras el descubrimiento de los isótopos, se ha realizado mucho trabajo experimental en el afán de encontrar una función especial de isótopos particulares en los procesos vivos. Los primeros trabajos indicaban que los procesos vivos enriquecían en cierta medida a los isótopos; por ejemplo, la proporción entre las concentraciones de isótopos de un elemento dado en el tejido vivo difieren de las que se encuentran en el ambiente a su alrededor de un modo característico. Aunque en la actualidad éste es un hecho bien establecido, que se ha explotado con amplitud en investigaciones geológicas, geoquímicas, ecológicas, botánicas, paleontológicas, etc., los cambios en la proporción de los isótopos involucrados casi siempre son al nivel de un número de partes por cada mil. Esto es comparable en magnitud con los cambios en los isótopos que causan los procesos inertes, y órdenes de magnitud inferior al efecto de la concentración de los elementos químicos mismos, al cual le debemos el origen biológico de la concentración de muchos yacimientos minerales. También se han dado algunos indicios de que los microorganismos pueden llevar a cabo ciertas transmutaciones; sin embargo, las pruebas siguen siendo ambiguas, y no se ha propuesto ninguna hipótesis muy buena de qué función fundamental podrían desempeñar tales transmutaciones, en la medida en que ocurren, en la organización de los procesos vivos.

Dejando de lado los isótopos muy radiactivos, cuyos efectos isotópicos específicos en los organismos vivos parecen del todo explicables en razón de la radiación misma, los organismos vivos parecen más bien insensibles aun a cambios grandes en las concentraciones de isótopos en el ambiente y en la materia que ingieren. En efecto, en esta aparente indiferencia se funda la técnica del rastreo isotópico de vías metabólicas y muchos métodos de diagnóstico médico. La excepción clara, pero no sorprendente, es el deuterio, dos veces más pesado que el hidrógeno común, cuyas propiedades químicas ordinarias son ya perceptiblemente diferentes a las del hidrógeno. La ingestión de agua pesada (D2O) en grandes cantidades lleva a trastornos metabólicos mortales en los animales; no obstante, pueden cultivarse bacterias en agua pesada, al grado que casi todo el hidrógeno que contienen es remplazado por deuterio, sin que parezcan sufrir daño.

La función del magnetismo nuclear

¿Significa esto que los isótopos no tienen una función directa como tal en la organización de los procesos vivos? ¡Al contrario! Pero el mejor indicio que tenemos hasta ahora proviene de una dirección muy diferente que un mero efecto estadístico de las concentraciones de isótopos. La clave está en las características magnéticas de los núcleos atómicos, las cuales difieren de manera radical entre los distintos isótopos de un mismo elemento. Estas características se aprovechan de manera rutinaria en la espectroscopía de resonancia nuclear magnética (RNM) que se usa en los hospitales modernos, pero apenas empieza a captarse su importancia cabal.

Las características magnéticas de los núcleos atómicos tienen una función decisiva en los procesos vivos, mismas que la espectroscopía de resonancia nuclear magnética (RNM) aprovecha de manera rutinaria. Espectrómetro del Laboratorio de Ciencias Ambientales William R. Wiley en el estado de Washington.

Las señales que se emplean en la RNM, por ejemplo, las emiten núcleos atómicos que interactúan con la combinación de un campo magnético producido por las bobinas que rodean al paciente o espécimen y un pulso de microondas que se usa para “excitar” las oscilaciones nucleares. Aquí, las diferencias entre los isótopos son decisivas. Para los núcleos de isótopos cuyos números atómico y de masa son pares, los momentos magnéticos que determinan la fuerza de la interacción con los campos magnéticos son indistinguibles de cero. Estos núcleos no contribuyen nada a la señal. Por otra parte, los núcleos con un número atómico o de masa impar tienen momentos magnéticos perceptibles, cuyos valores de algún modo dependen de la configuración interna de los núcleos. Emiten señales distintas que permiten “afinar” las máquinas de RNM para identificar isótopos específicos en el tejido vivo. Esas señales no sólo manifiestan la presencia de los isótopos correspondientes, sino también ciertas características de la geometría física a su alrededor, mediadas por interacciones magnéticas entre los diferentes núcleos y las estructuras de electrones en las que se alojan. La interacción entre los núcleos y las estructuras electrónicas que los rodean —conocida como “interacción hiperfina”— también se refleja en cambios muy ligeros, pero definidos con mucha precisión, en el espectro óptico de los átomos y las moléculas, y en otras clases de espectros. La estructura hiperfina tiene una relación muy estrecha con la constante cuántica física llamada “espín”, que se cree subyace en las propiedades magnéticas de los núcleos y otras partículas, y que está íntimamente entrelazada con la llamada estructura fina constante y otras constantes básicas de la física. Por desgracia, de todos los temas de la física cuántica, el fenómeno del “espín” es el que sufrió una mayor mistificación relativa a manos de Wolfang Pauli y otros.

Ahora bien, es difícil imaginar que un proceso tan bien organizado y delicadamente afinado careciera de importancia funcional en los procesos vivos. De hecho, la sensibilidad extraordinaria de los procesos vivos a los campos magnéticos constantes y variables es bien conocida, y conforma todo un campo de investigación llamado “magnetobiología” o “biomagnetismo”. La biosfera todo el tiempo está sujeta al campo magnético de la Tierra, el cual a su vez está conectado al del Sol y a la actividad solar.

Pero, a pesar de muchos intentos, la importancia biológica fundamental de esta sensibilidad y de la naturaleza de las interacciones involucradas no se ha clarificado. Parte de la razón es la magnitud al parecer “infinitesimal” del “componente nuclear” de los campos magnéticos en la materia viva e inerte. Las interacciones magnéticas entre moléculas, que se han estudiado de manera exhaustiva y se sabe que tienen una función decisiva en la bioquímica y la biofísica de los procesos vivos —en especial en lo que concierne a la función de los llamados radicales libres—, se deriva casi por completo de sus estructuras electrónicas, las cuales —al menos así se presumía— son relativamente independientes del magnetismo nuclear relacionado con el isótopo. Los momentos magnéticos de los núcleos son mil o más veces más débiles que los asociados con los electrones y sus configuraciones orbitales. Para obtener una señal suficiente de los núcleos, las máquinas de RNM emplean campos magnéticos que por lo general son entre veinte y treinta mil veces más fuertes que el campo magnético natural de la Tierra.

La fuerza de los efectos débiles

Pero, como ha demostrado la ciencia una y otra vez a lo largo de los siglos, suelen ser los efectos más débiles los que tienden a ignorarse, los que controlan en realidad a los más grandes. En los últimos años, en particular gracias a la obra de químicos físicos en Rusia, han salido a relucir pruebas decisivas de que las interacciones “hiperfinas” específicas de los isótopos desempeñan una función esencial en todos los procesos vivos.

En el transcurso de 2005 un grupo de investigación del Instituto de Física Química N.N. Semenov de la Academia de Ciencias rusa, encabezado por el famoso químico Anatoly Buchachenko, demostró los “efectos isotópicos magnéticos” de la síntesis biológica de trifosfato de adenosina TFA, que por lo común se conoce como la sustancia “conductora de energía” clave en prácticamente todas las células vivas. El proceso decisivo en la síntesis de TFA, conocido como fosforilación, depende de la actividad de varias enzimas que contienen iones de magnesio en lugares específicos. Ahora resulta que el ritmo de funcionamiento de estas enzimas cambia de manera drástica cuando un isótopo de magnesio es remplazado por otro. En un artículo publicado en la edición del 2 de agosto de 2005 en Proceedings of the National Academy of Sciences de EU, el profesor Buchachenko y compañía informaron del resultado de sus investigaciones en los términos siguientes:

En uno de sus brillantes artículos, Weber y Senior señalaban que, a pesar del gran progreso en nuestro conocimiento de la estructura, y nuestra comprensión de la dinámica molecular y el funcionamiento de las enzimas sintetizadoras de TFA, el mecanismo químico de fosforilación sigue siendo un enigma: “Nuestro entendimiento de la síntesis de TFA sigue siendo rudimentario en términos moleculares”. . . La reacción decisiva en la formación del enlace químico P-O-P que conduce la energía aún se desconoce. . . En la rama de la química de las reacciones enzimáticas, todas las ideas se limitan a especulaciones. . .
[Pero] un atisbo al mecanismo químico se deriva de un fenómeno notable que se descubrió hace poco: una dependencia de la actividad fosforilante de las enzimas de la isotopía del Mg [magnesio]. Este efecto inusitado se encontró en la creatina quinasa y la TFA sintasa. El ritmo de producción de TFA de las enzimas en las que el ión Mg 2+ tiene un núcleo magnético 25Mg (de espín nuclear de 5/2, momento magnético, −0,855 magnetón de Bohr) ha demostrado ser 2 a 3 veces superior a la inducida por las mismas enzimas con núcleos amagnéticos sin espín 24Mg y 26Mg. El descubrimiento de este efecto llamativo demuestra de manera convincente que la fosforilación enzimática es un proceso ión radical de espín electrónico selectivo, en el que el ión de magnesio Mg 2+ se manifiesta como un reactivo.

El artículo informa luego del efecto comparable de otra enzima decisiva que contiene magnesio y que participa en la fosforilación, la fosfoglicerato quinasa (FGQ). Aquí la tasa de fosforilación es 2,6 veces más alta con el isótopo magnético Mg–25, que con los isótopos amagnéticos. Un análisis posterior también muestra que éste no es un mero efecto de aceleración cinética, sino que el proceso de reacción sigue trayectorias diferentes según el isótopo presente.

Los detalles técnicos no son importantes para nuestros propósitos aquí. El asunto es que se ha abierto un vasto nuevo campo de la biología y la química en el que las características magnéticas de isótopos específicos tienen un papel decisivo. Aunque la demostración reciente de la especificidad isotópica en la síntesis de TFA, que se obtiene en materiales de origen sólo biológico, constituye un caso particularmente sorprendente, estos resultados son congruentes con la investigación en la llamada “química selectiva de espín”, que ha venido progresando en los últimos 20 años. Las siguientes citas dan cierto sentido de esta dirección, al tiempo que resaltan la necesidad de superar la mistificación de la física cuántica que mencioné:

La química de espín, en tanto campo nuevo de la ciencia química, se funda en el principio fundamental de que las reacciones químicas son selectivas en cuanto al espín; sólo las permiten estados tales de espín de productos cuyo espín total del electrón es idéntico al de los reactivos y están prohibidos si necesitan un cambio de espín. Sólo las interacciones magnéticas pueden cambiar el espín de intermediarios reactivos. . . Al ser selectivas en cuanto al espín del electrón, las interacciones químicas entre las especies químicas que portan el espín (los radicales, por ejemplo) también son inevitablemente selectivas en cuanto al espín nuclear. Si tanto el subsistema del espín del electrón como el del espín nuclear están unidos por el fermi o interacción magnética hiperfina (IHF), entonces el subsistema nuclear puede afectar el comportamiento del subsistema del espín del electrón por medio de la IHF y, por ende, modificar la reactividad química. La selectividad del espín nuclear diferencia los ritmos de reacción de los radicales (o, en general, de cualquier otra especie química con espín) con núcleos isotópicos magnéticos o amagnéticos. Este nuevo fenómeno es el efecto isotópico magnético (EIM), en contraste con el bien conocido efecto isotópico clásico (EIC), que es consecuencia de la selectividad de la masa nuclear de las reacciones químicas. Ambos efectos isotópicos clasifican los núcleos de los isótopos entre los productos de la reacción: el EIC selecciona los núcleos según su masa, en tanto que el EIM los selecciona según su espín y su momento magnético. (A. Buchachenko, “Comparative Analysis of Magnetic and Classical Isotope Effects” [Análisis comparativo de los efectos isotópicos magnéticos y clásicos], Chem. Rev. 1995, 95).
El valor de las interacciones magnéticas de una campo de 100.000 gauss con un espín nuclear es de sólo ca. 1×10−5 Kcal/mole. . . o menos [es decir, 500.000 veces más débil que los enlaces intermoleculares y más de 30 millones de veces más débil que los enlaces covalentes normales—JT]. A pesar del valor minúsculo de estas fuerzas magnéticas, demostraremos que pueden controlar la reactividad de pares radicales de una manera espectacular, si las condiciones supramoleculares son adecuadas. (Nicolas Turro, Chemical Communications [Comunicaciones químicas], 2002).

Otra dirección de pensamiento, más especulativa, merece mención:

La disponibilidad de elementos químicos en la Tierra ha engendrado una variedad casi ilimitada de estructuras y organismos mediante variaciones en la composición química. Parece que al descubrir alguna función biológica para, en esencia, todos los elementos químicos (incluso los “microelementos”), la naturaleza optimiza los recursos de diversificación química de que dispone. Es probable que una posibilidad similar surja para la diversidad isotópica de los elementos. Parece improbable que la naturaleza pueda “pasar por alto” un nivel adicional de diversificación informativa disponible a través del grado isotópico de libertad. . . Sternberg, DeNiro y Savage (1986), y Galimov (1982), presentaron hallazgos muy desatendidos sobre la composición isotópica de las vías bioquímicas y genéticas. Por ejemplo, durante la fotosíntesis el carbono que se obtiene del CO2 consiste en 12C y 13C, pero, dependiendo de la especie de la planta, sólo uno de estos isótopos se fracciona de manera preferencial. En la producción de energía en la forma de TFA, los isótopos de carbono se ubican de forma selectiva, de modo que se propagarán por toda la serie de reacciones en esa misma posición. La conservación de la estructura isotópica perdura, a pesar de que la catálisis de enzimas cambia la estructura básica del carbono de las moléculas intermedias. . . Un análisis combinatorio elemental conduce a un número enorme de permutaciones isotópicas posibles de estructuras químicamente fijas. Por ejemplo, un segmento de una molécula de ADN con 1 millón de átomos de carbono tiene cerca de 10.000 átomos de 13C distribuidos de manera aleatoria. El número de distribuciones que pueden distinguirse en términos isotópicos (el número de colocaciones posibles de los 10.000 átomos entre el 1.000.000 de emplazamientos) es de cerca de 1024.000, mucho mayor que el número de átomos en el universo”. (J. Pui y Alexander Berezin, “Mind, Matter and Diversity of Stable Isotopes” [Mente, materia y diversidad de los isótopos estables], Journal of Scientific Exploration, vol. 15, 2001).

Pui y Berezin pasan a especular que las permutaciones de las distribuciones isotópicas en el tejido del cerebro quizás tengan una función esencial en los procesos mentales.

Debo hacer hincapié en que el trabajo arriba citado sobre el “efecto isotópico magnético” sólo representa una dirección más bien prometedora de investigación. En relación con la pregunta que planteamos al principio de esta sección, la obra citada sigue teniendo la debilidad de que sólo se enfoca en la “maquinaria” química combinatoria de estos nuevos efectos isotópicos, y no en su relación con los principios de los procesos vivos per se.

No obstante, en estos estudios podemos ver con claridad que es el ambiente físico–geométrico especial que se crea en el tejido vivo, el que proporciona el marco en el que cambios isotópicos “infinitesimalmente pequeños” —los cuales en el dominio inerte, en circunstancias normales, sólo tendrían meros efectos marginales en apariencia estadísticos— pueden tener una función determinante en el transcurso de los acontecimientos macroscópicos. El carácter único de los procesos vivos residiría así, no en algún mecanismo o estructura específicos, sino en el poder de generar y mantener semejantes geometrías físicas superiores, que Vernadsky identificó en su obra, pero que LaRouche aborda de manera más apropiada en su elaboración del principio de Riemann y Dirichlet.

La multiconectividad de la economía de isótopos con la astrofísica, la colonización del espacio y la historia del sistema solar

La existencia física del Hombre, que depende de su acción constante en el universo, da lugar a otro aspecto de la relación entre los dominios vivo, inerte y noosférico, que cobra una nueva forma en la economía de isótopos.

Hasta ahora la humanidad ha satisfecho sus necesidades de materias primas casi por completo con la extracción de yacimientos superficiales o subterráneos de minerales que se crearon en el transcurso de cientos de millones o incluso miles de millones de años de la historia geológica de la Tierra. El origen de muchos, si no es que de la mayoría de esos yacimientos, está conectado con la actividad de los organismos vivos (en su mayoría microorganismos) que concentraron elementos químicos específicos de su ambiente y los depositaron en formaciones fósiles, sedimentos o rocas biológicamente transformadas.

En prácticamente todos los casos, el ritmo actual de extracción de materias primas por el hombre excede con mucho —en algunos casos por miles de millones de veces— el ritmo al que depósitos de minerales de calidad comparable se reponen o renuevan de manera espontánea en la naturaleza.

Es evidente que este proceso no puede continuar de manera indefinida. Es cierto que, en términos absolutos, el hombre aún está muy, muy lejos de agotar la inmensa reserva de yacimientos minerales de la Tierra, pero los límites implícitos de la modalidad puramente extractiva actual se reflejan en el creciente costo físico marginal de la extracción y el procesamiento necesarios para obtener cualquier calidad dada de material. Nos vemos entonces obligados a ir a regiones cada vez más remotas de la superficie de la Tierra, para toparnos con un costo mayor del transporte y otra infraestructura, cavar o perforar a más profundidad en la tierra o el fondo del mar, recurrir a yacimientos de menor calidad con costos más altos de procesamiento conforme los depósitos de más calidad se agotan, y así sucesivamente.

Estas circunstancias, junto con la distribución geográfica tan dispareja de la mayoría de las materias primas, han llevado a serios cuellos de botella al nivel regional, y a un incremento de las tensiones geopolíticas por las maniobras de naciones como China para asegurar su acceso a suministros de materias primas, al mismo tiempo que intereses financieros especulativos actúan para apoderarse de esos mismos suministros, en vísperas de una anticipada crisis de gran magnitud del sistema financiero mundial.

Ante esta situación, Lyndon LaRouche ha propuesto una “estrategia Vernadsky”, con un plazo de 50 años. La estrategia Vernadsky estipula la realización de inversiones físicas a gran escala y otras medidas para garantizar el abasto adecuado de materias primas a precios estables para todas las naciones del orbe, como un componente decisivo de una política general de reorganización del sistema financiero y económico mundial. La estrategia de LaRouche parte del entendimiento de que la tarea de asegurar el abasto a largo plazo de materias primas para la economía mundial por los próximos 50 años, sólo puede resolverse desde la perspectiva de la “noosfera” de Vernadsky: el hombre tiene que progresar ahora, de la etapa de la simple extracción de recursos minerales de una manera más o menos desorganizada, a la gestión y desarrollo conscientes del proceso entero de generación y aprovechamiento de esos recursos a una escala planetaria. Esto no sólo incluye los procesos “naturales” de reposición de los recursos de la biosfera, sino también —¡cada vez más!— la creación deliberada de recursos, “de novo”, por parte del hombre, mediante procesos tales como la transmutación a gran escala de elementos. Al mismo tiempo, necesitamos avances revolucionarios en la tecnología de extracción y procesamiento de materias primas y reciclamiento de desechos, que compensen la tendencia del aumento marginal en el costo de las materias, al tiempo que se incrementa de manera radical la gama y calidad de los productos finales.

Hasta el surgimiento de la energía nuclear, la existencia del hombre se había fundado exclusivamente en la provisión de unos 83 elementos químicos que ya existían en la biosfera, y cuya existencia se remonta casi del todo a la génesis del sistema solar mismo (la excepción son ciertos elementos que creó la desintegración radiactiva de otros).

En el transcurso de la evolución de la biosfera, la circulación de elementos químicos en la Tierra —la migración geoquímica de los átomos, como Vernadsky la llamaba— vino a dominarla cada vez más la acción de los procesos vivos. En virtud de su capacidad para concentrar los elementos que existen en su ambiente, los organismos vivos, en especial los microorganismos, de hecho crearon muchos de los depósitos minerales que el hombre explota hoy como fuentes de materias primas. Además, incluso procesos “inorgánicos” de formación y evolución de minerales que no involucran la acción directa de organismos vivos estuvieron bajo la influencia indirecta de la migración biogénica de elementos en la biosfera. Esta migración de elementos de ningún modo se limita a los confines inmediatos de la superficie terrestre; la “esfera de influencia” de la biosfera se extiende, vía la circulación vertical constante de agua (y de los iones y gases disueltos en ella), hasta los mantos superior e inferior de la Tierra.

Esa actividad extractiva, y el posterior transporte y transformación de elementos mediante la actividad económica humana, han cambiado de manera fundamental las pautas de “migración” de los elementos minerales de la biosfera, lo que por fin ha llegado al grado que el hombre empieza a crear nuevos recursos mediante la transmutación de elementos. Esta última etapa Vernadsky la asociaba con el surgimiento de la noosfera.

Mientras meramente usábamos los elementos, al hombre no le interesaba de manera directa el proceso histórico de su creación como tales, aunque al geólogo y al explorador minero les interesa mucho la historia de sus migraciones subsiguientes en la Tierra. Ahora bien, esto cambia de forma radical.

La economía humana se torna ‘astrofísica’

Por primera vez la actividad humana está trascendiendo los límites de la mera redistribución y combinación de elementos, para encargarse de sus procesos de generación. Sin duda, el negocio de la síntesis a gran escala de especies atómicas viejas y nuevas por medio de reacciones nucleares, que es característico del surgimiento de la economía de isótopos, lleva la actividad económica del hombre a una relación íntima inmediata con el dominio astrofísico y los procesos de formación de las estrellas y los planetas. Descubrir los principios que ocultan estos procesos y aplicarlos a la tarea de desarrollar más la biosfera y su extensión a regiones siempre más grandes del sistema solar, autodefine al hombre como un ser universal, y no como un mero habitante del planeta Tierra; un ser que actúa de acuerdo con una direccionalidad superior inserta en el cosmos entero.

Y a la inversa, el flujo constante de nuevos descubrimientos científicos en la física subatómica y esferas relacionadas, que se necesita para realizar y mantener una economía de isótopos en la Tierra, no puede darse sin extender la actividad humana a gran escala más allá de la proximidad orbital de la Tierra, a Marte y, a la larga, más allá.

Hay muchas razones científicas y físico–económicas interconectadas para esto. Incluso la noción de una “estrella de neutrones”, por ejemplo, sugiere que los procesos subatómicos tienen un carácter en esencia astrofísico. El creciente dominio de la humanidad de semejantes procesos exige una amplia investigación multiespectral de objetos anómalos distantes en nuestra galaxia y en otras, que no puede hacerse desde la Tierra o ni siquiera desde el sistema de la Tierra y la Luna, por las perturbaciones insuficientes de paralaje que se derivan del Sol y otras causas. Debemos ser capaces de llevar a cabo mediciones interferométricas y otras relacionadas a una escala de longitud comparable a la de la órbita de Marte, mediciones que a la larga involucrarán cientos de estaciones de medición láser interconectadas, “estacionadas” en órbitas solares apropiadas. Establecer y mantener estas estaciones, y actualizarlas constantemente con nuevos instrumentos para seguir el ritmo de los avances científicos y tecnológicos, requiere la intervención humana constante y, por consiguiente, una amplia base logística que apoye a la fuerza laboral necesaria y su actividad en estas regiones orbitales distantes.

Pueda que algunos aun entre los profesionales no estén de acuerdo con nuestra afirmación de que el progreso de la física nuclear y la astrofísica de veras necesita semejante programa —¡al parecer extravagante!— de colonización espacial. El tono de “autoridad” de los tratados astronómicos y astrofísicos comunes en cuanto a cuestiones tales como el principio del universo, la estructura de nuestra galaxia y el mecanismo de formación de estrellas, los procesos nucleares que ocurren en el Sol, las estrellas, etc., a menudo da la impresión errónea de que los hechos básicos en estos campos ya han quedado establecidos, y que sólo resta investigar los detalles. No obstante, la verdad es que muy pocas de esas conclusiones se han establecido con algún grado real de certeza; ni podrán establecerse, en tanto la actividad humana siga atada a la proximidad inmediata de la Tierra.

Éste es el caso incluso al nivel de clases “elementales” de información astronómica tales como las distancias y movimientos verdaderos de objetos relativamente “cercanos” de nuestra galaxia. Una demostración sorprendente de esto se dio a fines de 2005, cuando un grupo internacional de astrónomos determinó, por triangulación directa, que los cálculos previos de la distancia que separa a nuestro sistema solar del brazo espiral más cercano en la galaxia —el brazo de Perseo— ¡estaban 200% errados! Eso ocurrió a pesar de la impresión de superprecisión que dan las mediciones astronómicas modernas, que se generan con la ayuda de sofisticados instrumentos terrestres y observatorios orbitales.

Es evidente que los mapas de nuestra galaxia, que innumerables tratados y libros de texto reproducen como “hechos”, tendrán que rehacerse. Tal vez sepamos tan poco de la forma, historia y funcionamiento interno verdaderos de nuestra galaxia hoy, ¡como Europa sabía del continente de América antes de los viajes de Colón! Es cierto que Eratóstenes, muchos siglos antes, pudo determinar el diámetro de la Tierra con un grado sorprendente de precisión a partir de las pruebas de una pequeña porción de su superficie, tal como Johannes Kepler, un siglo después de Colón, pudo descubrir el principio básico de los movimientos planetarios en nuestro sistema solar sin dejar la Tierra. Sin embargo, la importancia de estos triunfos de la razón humana no es que podamos aprenderlo todo sobre el universo tan sólo sentándonos en nuestro sillón en la Tierra, sino que, más bien, gracias a los logros acumulados de la razón humana hemos aprendido lo suficiente, al trabajar desde la Tierra, como para ir ahora más allá de ella. Así, al descubrimiento de Eratóstenes de inmediato lo siguió el primer intento documentado de circunnavegar la Tierra.

El asunto aquí es que nuestro conocimiento actual de la física nuclear, aunque muy imperfecto, en cualquier caso basta para construir las primeras generaciones de vehículos espaciales de fisión y fusión nuclear, y otras tecnologías, y que eso nos permitirá llevar adelante en el sistema solar la clase de actividades necesarias para asegurar un flujo de avances futuros en la física nuclear.

Como es natural, la mera expansión espacial de la actividad humana constituye sólo una condición necesaria para la continuación del progreso científico. Para hacer los avances, no sólo necesitamos observaciones, sino mejores formas de pensar en ellas.

De vuelta a la dinámica: el renacimiento de la física nuclear

En la mayor parte de la deliberación hasta el momento, me he limitado a cosas que pueden proyectarse en base al conocimiento y las capacidades tecnológicas actuales. Estos avances bastan para “insertar” al mundo en la “órbita” de la economía de isótopos, pero no para mucho más. Muy pronto apremiará la necesidad de emprender una muy pospuesta revisión abarcadora de las teorías físicas actuales.

El éxito de mediano y largo plazo de la economía de isótopos depende de hacer lo mismo en la física nuclear y la ciencia física en general, tal como Johannes Kepler lo hizo en la astronomía hace casi 500 años.

Sin duda, el estado actual de la física nuclear tiene un extraño parecido con el baturrillo de modelos y procedimientos de cálculo en conflicto que caracterizaban a la astronomía en tiempos de Kepler, y con el que barrió al hacer época con su Nueva astronomía. Kepler sabía muy bien que no estaba simplemente corrigiendo teorías defectuosas, sino que combatía un fraude monstruoso, perpetrado siglos antes por Aristóteles y Ptolomeo, cuya promoción política dio pie a una “edad oscura” de la ciencia europea, desde la muerte de Arquímedes hasta el Renacimiento del siglo 15.

Sistema de un cohete nuclear listo para efectuar una prueba; sobre las siglas NRX (reactor experimental NERVA) se aprecia el reactor y el sistema de escape. El programa estadounidense de propulsión nuclear conocido como NERVA (Motor Nuclear para su Aplicación en Cohetes) se desarrolló en los 1960 como un componente esencial del programa espacial, pero en 1972 se liquidó el programa nuclear como parte de un ataque contra la ciencia, y contra la nuclear en particular. Ahora la NASA está financiando de nuevo sistemas de propulsión nuclear en su “proyecto Prometeo”.

Esperemos que la suerte de educación que se obtiene al trabajar con el método de descubrimiento de Kepler, le permita a una nueva generación de jóvenes físicos cumplir ahora una misión análoga en la física nuclear y la astrofísica.

Para darte una probadita de lo que viene, en las dos últimas secciones de este artículo quiero empezar con una simple paradoja, que uno de los fundadores de la física nuclear, Werner Heisenberg, retomó al final de su vida.

La pregunta es simplemente ésta: a casi todos nosotros nos han criado con la doctrina empirista reduccionista de que cada entidad en el universo está hecha de alguna suerte de elementos más simples o “bloques de construcción” que forman parte de ellos. Un ejemplo típico de esto es el llamado átomo de Rutherford, la noción de que las moléculas están compuestas de átomos, los átomos de electrones y núcleos, los núcleos de protones y neutrones, etc. Pero, ¿qué queremos decir en realidad cuando decimos que una entidad forma parte de otra o que está “hecha” de tales partes?

Sin necesidad de adentrarnos en nada tan avanzado como la física nuclear, podemos demostrar la paradoja de una manera muy bella con el caso del agua. En la secundaria aprendemos que el agua la componen entidades llamadas moléculas de agua, y que a éstas las componen un átomo de oxígeno y dos de hidrógeno, cada uno según la fórmula H2O. ¡Pero no hay relación simple alguna entre las propiedades del oxígeno y el hidrógeno, por una parte, y las del “agua” que se supone que está compuesta por ellos! De hecho, será muy difícil hacer que el estudiante de química de secundaria, al dejar que un poco de gas de oxígeno e hidrógeno se combinen, ¡reconozca nada en lo absoluto en las gotas de “agua” que se forman como producto de la pequeña explosión en su tubo de ensayo, que sugiera cuáles son las propiedades de esos dos gases! Cuando mucho, las masas de las porciones reactivas del hidrógeno y el oxígeno, o más bien su suma, parece haberse preservado como la masa del agua resultante. Pero hasta esta invariancia (aproximada) se trasgrede de manera notable en el mundo de las reacciones nucleares; allí, el resultado de la fusión de dos núcleos puede ser significativamente más ligero que la suma de sus masas.

Ciclotrón magnético Chicago a medio ensamblar. Este ciclotrón, el segundo del mundo, lo diseñó y construyó el finado doctor Robert Moon y un equipo de alumnos del doctor William Harkins en la Universidad de Chicago en 1936. (Foto: cortesía del doctor Robert Moon).

dr. robert j moon

Estas anomalías dejan claro que el origen de las propiedades del agua (por ejemplo) no puede encontrarse ni en el oxígeno ni en el hidrógeno, ni por separado ni juntos. ¿De dónde vienen entonces esas propiedades? ¿No debiéramos más bien suponer que el “agua” ya estaba presente como un estado potencial de organización, y que sólo necesitaba de los dos como un medio para expresarse? La esencia del “agua” yace en el cambio que ocurrió en la reacción.

La fuente de la dificultad es la tendencia, que se remonta a Aristóteles y que la contrarrevolución de Galileo y Paolo Sarpi contra el método platónico de Kepler renovó, a considerar falsamente los objetos de los sentidos como “reales”, y las ideas como “abstractas”, cuando en realidad lo contrario es verdadero; a saber, que son las ideas las que son reales y que lo que llamamos objetos sensoriales son meros efectos que se derivan de ellas.

Este error elemental, a su vez, yace en el origen de los vanos intentos aun vigentes de los físicos por deducir las propiedades de los núcleos atómicos a partir del supuesto de que están “hechos” de partículas que interactúan por pares según esta o aquella fórmula matemática. Este intento por emular a Isaac Newton, quien de hecho no pudo explicar para nada las características armónicas más elementales del sistema solar con su ley de fuerza, ha ocupado a los físicos por casi un siglo. Empero, ninguno ha podido encontrar una solución, y la búsqueda en vano de una ha conducido a todo el desarrollo teórico de la física nuclear a un callejón sin salida.

En los viejos tiempos, muchos científicos tenían cierta conciencia del fraude del reduccionismo. Allá a principios de los 1970, por ejemplo, en el proceso que llevó a la creación de la Fundación de Energía de Fusión, Lyndon LaRouche conoció al físico de la Universidad de Chicago y químico físico Robert Moon, un veterano del proyecto Manhattan de cuando la guerra, que había diseñado el primer ciclotrón que se empleó en el mismo. Según la historia que escuché, en ese entonces Moon exteriorizó su opinión de que, “la física nuclear contemporánea es un montón de basura”. Como un ejemplo de esto, Moon afirmó que la interpretación acostumbrada de los famosos experimentos de “dispersión alfa”, de los que Rutherford y físicos posteriores derivaron sus cálculos del tamaño y otras características fundamentales del núcleo atómico, se fundaban en supuestos equivocados y arbitrarios sobre la naturaleza de las interacciones entre el núcleo y las partículas alfa que se usaban para bombardear al núcleo.

De modo parecido, según Moon, la totalidad de la investigación sobre la fusión nuclear controlada se había arrojado por el camino equivocado, por el supuesto errado de que tenía que superarse la llamada “fuerza de Coulomb” entre los núcleos para que ocurrieran las reacciones de fusión. Este supuesto es el que imposibilita la “fusión polarizada” de la clase que LaRouche propone. En la búsqueda de medios para “superar la barrera de Coulomb”, los científicos de fusión se vieron obligados a impartir velocidades enormes a los núcleos, lo que a su vez significó trabajar con temperaturas de millones de grados centígrados. Y, no obstante, como muchos experimentos demuestran, puede hacerse que la “barrera” desaparezca si el sistema se ubica en una geometría física conveniente (la llamada mecánica de ondas reconoce ya semejante posibilidad, pero de un modo sofista, como un “efecto túnel resonante”).

Pero si los estados de los núcleos atómicos no los determinan fuerzas elementales, y si ciertamente no hay tal cosa como una “fuerza elemental”, entonces, ¿qué determina los estados de los núcleos atómicos? El primer paso sería admitir que los propios estados de organización, y la intención que los acompaña, son los agentes eficientes inmediatos de los procesos nucleares. Es precisamente con esta idea en mente, que el finado doctor Moon, inspirado por sus deliberaciones con LaRouche, propuso en 1985 un nuevo enfoque geométrico para la física nuclear, sin los supuestos sobre las “fuerzas elementales”. Al proponer su ahora famoso modelo del núcleo en términos de sólidos regulares engastados unos en otros, Moon puso de relieve, por ejemplo, que “el protón es una singularidad que existe en la geometría de todo el espacio, y que depende de ella”. Insistía que las partículas surgen de las geometrías, en vez de que las geometrías que surgen de las partículas decidan organizarse de esta o aquella manera.

¿Pero cómo, por ejemplo, puede una entidad geométrica —digamos, un sólido regular— ejercer cualquier clase de acción eficiente en el universo? Considera los siguientes cuatro pasajes, uno del Timeo de Platón, dos de fragmentos póstumos de Bernhard Riemann (185?), y uno del último escrito publicado de Werner Heisenberg (1976), respectivamente:

Platón en el Timeo:

Cuando vemos que algo se convierte permanentemente en otra cosa, por ejemplo el fuego, no hay que denominarlo en toda ocasión “este” fuego, sino siempre “lo que posee tal cualidad”, y no “esta” agua, sino siempre “lo que tiene tal característica”, ni hay que tratar jamás nada de aquello para lo que utilizamos los términos “eso” y “esto” para su designación, en la creencia de que mostramos algo, como si poseyera alguna estabilidad, puesto que lo que no permanece rehuye la aseveración del “eso” y el “esto” y la del “para esto” y toda aquella que lo designe como si tuviera una cierta permanencia. Pero si bien no es posible llamar a cada uno de ellos “esto”, lo que tiene tales características y permanece siempre semejante en el ciclo de las mutaciones puede ser denominado según las cualidades que posee, y así es fuego lo que posee en todo momento tal rasgo e, igualmente, todo lo generado.[1]

Riemann:

I. Lo que un Agente pugna por comprender ha de determinarlo el concepto de la voluntad; su actuación no puede depender de otra cosa que no sea su propia naturaleza.

II. Este requisito se cumple cuando el Agente pugna por mantenerse o establecerse a sí mismo.

III. Pero semejante acción es impensable si el Agente es una cosa, una existencia, pero sólo es concebible cuando es una condición (estado) o una relación. Cuando hay una pugna por mantener o crear algo, entonces las desviaciones de este “algo” —de hecho, desviaciones en varios grados— han de ser posibles; y de hecho este “algo”, en la medida que esta pugna contraríe otras tendencias, sólo se mantendrá o creará de manera tan exacta como sea posible. Pero no hay un grado de existencia; una diferenciación en términos de grado sólo es concebible para un estado o una relación. Por tanto, cuando un Agente pugna por mantenerse o crearse, ese Agente tiene que ser una condición o una relación.

Segundo fragmento:

Con cada acto del pensamiento, algo perdurable y sustancial se asienta en nuestra alma. Yo lo llamo Geistesmasse [masa de pensamiento]. Por tanto, todo pensamiento es la generación de nuevas Geistesmassen. . . Las Geistesmassen son imperecederas, eternas. Sólo el poder relativo de estas condiciones cambia, por medio de la integración de nuevas Geistesmassen. Las Geistesmassen no necesitan un portador material ni ejercen efecto constante alguno en el mundo de las apariencias. No están relacionadas con ninguna parte de la materia y, por consiguiente, no se localizan en el espacio. Pero cualquier generación nueva de Geistesmassen, y cualquier conexión nueva entre ellas, exige un sustrato material. . . Cada Geistesmasse pugna por generar una Geistesmasse similar. Pugna, por ende, por causar la misma forma de movimiento de materia mediante la cual fue generada.

Por último, Heisenberg:

Creo que ciertas tendencias erróneas en la teoría de las partículas —y me temo que tales tendencias sí se dan— las causa la idea falsa de que es posible eludir por completo el debate filosófico. Partiendo de una filosofía pobre, plantean las preguntas equivocadas. . .

Antes [de los experimentos de Andersen y Blackett, que demostraban la llamada producción de electrones y positrones en pares mediante un cuanto de luz—JT) se presumía que había dos clases fundamentales de partículas, electrones y protones. . . su número era fijo y se los llamaba partículas “elementales”. Se consideraba que la materia en última instancia la constituían electrones y protones. Los experimentos de Andersen y Blackett proporcionaron pruebas definitivas de que esta hipótesis era incorrecta. Los electrones pueden crearse y aniquilarse; su número no es constante; no son “elementales” en el sentido original de la palabra. . .

No hay diferencia entre las partículas elementales y los sistemas compuestos [tales como los átomos y las moléculas—JT]. Éste es quizás el resultado experimental más importante de los últimos cincuenta años. Ese avance sugiere de manera convincente la siguiente analogía: comparemos las llamadas partículas “elementales” con los estados estacionarios de un átomo o molécula. Podemos considerar éstos como varios estados de una sola molécula o como las muchas moléculas diferentes de la química. Uno puede hablar así simplemente de un “espectro de la materia”. . .

Las preguntas y descripciones equivocadas se cuelan de manera automática en la física de partículas y llevan a formulaciones que no encajan en la situación real de la naturaleza. . . Tendremos que aceptar el hecho de que la información experimental a una escala muy grande y muy pequeña no necesariamente produce descripciones, y tenemos que aprender a vivir sin ellas. . . . La filosofía de Platón parece ser la más adecuada.

El espectro de las partículas sólo puede entenderse si se conoce la dinámica subyacente de la materia; la dinámica es el problema central.

La radiactividad, los isótopos y las ironías del sistema periódico

Con estas paradojas en mente, la intención de los párrafos siguientes es ofrecerle al lector —sobre todo al lego— algunos breves antecedentes del descubrimiento y la naturaleza de los isótopos, y de algunos principios de la física nuclear relacionados con ellos, hasta donde se conocen en la actualidad.

Uno siempre debiera recordar que la física atómica y nuclear, en la medida que sea válida, evolucionó al aplicar al dominio microfísico el mismo método esencial que Johannes Kepler usó para su descubrimiento original del principio de la gravitación en el astrofísico. Esa relación entre la astrofísica y la microfísica es congruente y necesaria. Pasó a primer plano, una vez más, en la manera en que la física nuclear evolucionó a partir de las anomalías del sistema periódico de los elementos. Así que retomaré la historia desde ese momento.

Werner Heisenberg escribió que cuando se plantean las preguntas equivocadas en la física de partículas, es natural que surjan las respuestas equivocadas. “El espectro de las partículas sólo puede entenderse si se conoce la dinámica subyacente de la materia; la dinámica es el problema central”, escribió, al recomendar el estudio de la filosofía de Platón para resolver este problema.

Cuando Dimitri Mendeléiev comenzó su trabajo científico en 1855, el supuesto axiomático central de la química era la noción de un elemento químico. Esta noción se asocia con la idea de que no podemos diferenciar o dividir la sustancia de manera indefinida, sin encontrar alguna suerte de límite, frontera o, como decimos, singularidad. En la práctica específica de la química, hasta la época de Mendeléiev, la exploración de esta materia en lo principal cobró la forma de lo que se llaman métodos de separación química: la destilación, la precipitación, la electrólisis, la centrifugación, etc. Hablando en términos generales, comenzamos con cualquier sustancia y le hacemos varias cosas para ver si podemos inducir una separación o diferenciación del material original en dos o más sustancias nuevas, cada una con características claramente distintas.

Así, en la electrólisis, producimos hidrógeno y oxígeno a partir del agua, por ejemplo. Y después tomamos esas dos nuevas sustancias que produjimos por la separación de la primera, y tratamos de hacer lo mismo con cada una de ellas. Seguimos haciendo eso, tratando de llevar el proceso hasta el límite, a una singularidad. A través de esta clase de exploración, los químicos de hecho sí llegaron a un límite, como se esperaba, en la forma de lo que a veces se llamaban “cuerpos simples” o elementos; sustancias que al parecer no podían diferenciarse más. Desde la antigüedad, se habían identificado varios de tales elementos: el hierro, el cobre, el estaño, el plomo, el mercurio, el oro, la plata, el sulfuro y el carbono. Unos cinco elementos más se añadieron en la Edad Media, y luego, bajo la influencia de la obra de Godofredo Leibniz para el inicio de la Revolución Industrial, hubo, en tiempos de Leibniz, desde más o menos los 1740, un desarrollo explosivo de la química física, de modo que para cuando Mendeléiev se graduó del Instituto Superior Pedagógico de San Petersburgo, ya se conocían unos 64 elementos químicos.

Hay diferentes hipótesis contrarias asociadas con el término “elemento químico”. El empirismo ha insistido, por ejemplo, en el axioma o idea dizque de suyo evidente, que por desgracia sigue repitiéndose en gran parte de nuestra educación básica, de que los elementos representan los irrompibles “bloques de construcción” fundamentales de la materia, cuya supuesta cualidad de realidad se toma de los primeros años del bebé en el corralito. Por el contrario, el gran químico francés Lavoisier adoptó la perspectiva más adulta de que los elementos químicos son singularidades, momentos de cambio, no en la búsqueda de los bloques de construcción fundamentales, sino de lo que él llamó los “principios” de la materia, el principio de generación de la materia.

En 1869 Mendeléiev publicó su primera versión de la tabla periódica, con la que demostró que los elementos químicos constituyen un solo organismo ordenado de forma armónica, exactamente como Kepler había considerado el sistema de las órbitas planetarias.

El descubrimiento de Mendeléiev del sistema periódico lo inspiró su trabajo como maestro. En la enseñanza, lo irritaba y provocaba la masa caótica de datos sobre los elementos individuales, y se preguntó: ¿De veras es ciencia lo que hacemos aquí? ¿Puedo presentar esto como ciencia? Mendeléiev escribió lo siguiente:

La mera acumulación de hechos, aun una colección en extremo amplia. . . no constituye un método científico; no brinda ni una dirección para otros descubrimientos ni merece siquiera el nombre de ciencia en el sentido superior de esa palabra. La catedral de la ciencia no sólo necesita material, sino un diseño, armonía. . . un diseño. . . para la composición armónica de partes y para mostrar el camino por el cual podrá generarse el material nuevo más fecundo.

Mendeléiev arribó a este descubrimiento después de muchos intentos infructuosos de otros químicos, al yuxtaponer dos clases distintas de ordenamientos experimentalmente definidas de los elementos:

Primero, la división natural de los elementos en grupos distintos, cada uno compuesto por elementos con características similares o análogas, en relación con la totalidad de los elementos, en términos de las clases de compuestos químicos y cristales que forman, y otras propiedades físico–químicas.

Segundo, la “posición” de los elementos en una sola secuencia, según los valores crecientes de su peso atómico, empezando por el hidrógeno y terminando con el uranio.

La elección de Mendeléiev de este segundo principio de ordenamiento fue decisivo. De modo correcto planteó la hipótesis de que los “pesos atómicos”, de entre todos los parámetros físicos y químicos conocidos, reflejaban una constante, un “algo” que se mantiene en todas las transformaciones químicas. Al mismo tiempo, Mendeléiev rechazó con decisión todo intento de explicar de manera simplista y lineal la secuencia de los elementos en términos de su conformación; por ejemplo, a partir del hidrógeno como el principal “bloque de construcción”. Mendeléiev insistía que cada elemento químico representaba una verdadera “individualidad”.

Al batallar con las ambigüedades e imprecisiones de la información empírica que había entonces, Mendeléiev finalmente dio a luz al “sistema natural de los elementos”, como lo llamó, y al descubrimiento fundamental de que las propiedades químicas de un elemento son en esencia una función multiperiódica del número ordinal del elemento en la serie ascendente de los pesos atómicos. Este principio no sólo permitió reunir casi todo el conocimiento de los elementos químicos entonces vigente en un todo congruente, sino que también llevó a Mendeléiev, y a otros después, a predecir con tino la existencia y características de elementos químicos individuales “faltantes”.

mendeleyev

Dimitri Mendeléiev. “Las implicaciones de lo que ha puesto en marcha el descubrimiento de la radiactividad y los isótopos, al desarrollar el entendimiento ‘kepleriano’ de Mendeléiev del sistema periódico, van mucho más allá de cualquier cosa que el mundo haya visto hasta ahora”.

El proceso dinámico subyacente

Pero Mendeléiev mismo consideraba su descubrimiento como un mero primer paso. En su artículo de 1870, “Sobre el sistema natural de los elementos”, escribió:

Cuando logremos descubrir las leyes exactas de la dependencia periódica de las propiedades de los elementos a partir de sus pesos atómicos, y de las interrelaciones atómicas entre los elementos, entonces estaremos más cerca de entender la verdadera naturaleza de las diferencias mutuas entre ellos; entonces la química podrá dejar atrás el dominio hipotético de los conceptos estáticos que ha imperado hasta ahora, y se abrirá la posibilidad de aplicar a la química el enfoque dinámico que con tanto provecho se ha empleado en la investigación de la mayoría de los fenómenos físicos [énfasis añadido].

El avance en el descubrimiento del proceso dinámico que subyace en el sistema periódico vino de tres direcciones experimentales. Primero, el estudio de las anomalías del sistema de los elementos: sus lagunas aun sin resolver; la cuestión de por qué la serie de los elementos parece interrumpirse en el uranio; y, por último, el carácter anómalo de los propios pesos atómicos, cuyas proporciones por lo general se aproximan, pero difieren de las de los números enteros simples. Segundo, la investigación de varias formas de radiación que emiten los átomos. Tercero, la búsqueda de las anomalías de la geoquímica, al investigar la distribución de los elementos en la naturaleza, en minerales, por ejemplo, donde se encuentra que ciertos elementos están estrechamente asociados unos con otros, “como si” tuvieran alguna relación “hereditaria” entre sí.

A partir del descubrimiento de Röntgen de los rayos X, que se generan cuando electrones acelerados impactan la superficie de un metal, Becquerel descubrió que las sales de uranio emitían de manera espontánea una suerte de radiación débil, capaz de oscurecer las placas fotográficas, pero al parecer sin la necesidad de estímulo externo alguno. Más tarde, Marie Curie acuñó el término “radiactividad”, para sugerir que la fuente de la radiación de Becquerel yacía en una actividad dinámica inherente a los átomos mismos. Al darle seguimiento a esta situación con un nuevo método de medición, Marie Curie investigó todos los minerales disponibles, y descubrió que la radiación de Becquerel estaba presente exclusivamente en minerales que contenían uranio y torio, los elementos último y penúltimo del sistema de Mendeléiev. Ciertas anomalías la llevaron a sospechar que la fuente principal de la radiación no eran el uranio y el torio en sí, sino los rastros de algún otro elemento o elementos asociados con ellos en los mismos minerales. A la larga, Marie y su marido, Pierre, pudieron aislar dos nuevos elementos muy radiactivos a partir de una gran cantidad de pecblenda, el subproducto del mineral de uranio: primero el polonio, y luego el radio, con lo que llenaron los espacios vacíos de los números ordinales 84 y 88 en la tabla de Mendeléiev.

mendeleyev

Marie Curie supuso que la radiactividad estaba conectada con un proceso de “transformación atómica”, que subyacía en la asociación íntima del radio y el polonio con el uranio y ciertas otras sustancias. Investigaciones posteriores confirmaron su conjetura: el radio iba convirtiéndose lentamente en plomo”. (Foto: clipart.com).

Eso fue en 1898. En los años que siguieron hubo una avalancha de nuevos descubrimientos experimentales. Se descubrió que el radio, además de emitir un continuo resplandor azul, también producía cantidades significativas de calor, que cada año equivalían a la combustión de 100 veces su peso en carbón. Y, no obstante, la emisión de luz y calor del radio parecía continua, año tras año, sin disminución perceptible. Pero, Curie supuso que esa radiactividad estaba ligada a un proceso de “transformación atómica” que, de algún modo, subyacía en la asociación íntima del radio y el polonio con el uranio y otras ciertas sustancias que siempre se encuentran en los minerales que lo contienen, y que el radio muy despacio iba transformándose en uno u otros de los elementos.

Investigaciones posteriores confirmaron su suposición: el radio se transformaba muy lentamente en. . . ¡plomo! El ritmo de transformación era tan lento que, luego de unos 1.600 años, sólo cerca de la mitad de la cantidad original de radio se habría convertido en plomo, junto con una simultánea liberación gradual de gas de helio. En este proceso, el radio habría emitido una cantidad de calor equivalente a casi un millón de veces su peso en carbón. De inmediato se hizo evidente que el descubrimiento de esta nueva energía “atómica” llevaría a una revolución en los asuntos humanos, tan pronto como se encontraran los medios para acelerar el proceso espontáneo, al parecer muy lento, de transformación atómica.

Entre tanto, se fue aclarando de manera gradual el cuadro más amplio de la existencia de varias “cadenas de desintegración radiactiva” distintas, empezando por el uranio y el torio, en cuyo proceso ocurren muchas transformaciones atómicas sucesivas de modo simultáneo y a ritmos promedio muy diferentes, y donde la generación y desintegración del radio y el polonio constituyen pasos intermedios de camino al “destino final”, que es el plomo. Una de ellas, por ejemplo, sufre 15 transformaciones, que saltan de arriba para abajo en el sistema periódico, antes de llegar por fin al plomo. Algunos de los pasos se dan en segundos, otros en algunos minutos o días, y otros más duran años, hasta varios miles de millones en el paso inicial desde el uranio.

Como Mendeléiev había anticipado, empezó a entrar en perspectiva una realidad muy dinámica bajo la superficie en apariencia tranquila del sistema periódico, con sus relaciones aparentemente fijas: un mundo de creación, muerte y metamorfosis de elementos en el que operan principios diferentes a los que expresa la tabla periódica per se.

La transmutación y el descubrimiento de isótopos

Hasta entonces, la radiactividad sólo le concernía a las transformaciones radiactivas espontáneas que ocurren en un puñado de elementos. Pero, para 1926, los científicos habían aprendido a realizar las primeras “transmutaciones artificiales” de otros elementos, al transformar átomos de nitrógeno en átomos de oxígeno mediante su exposición a una fuente radiactiva. Como es evidente, la transmutación de elementos —el sueño de los alquimistas— era una potencialidad universal. La propia perspectiva sugería que la distribución actual de los elementos en la Tierra es un “fósil” de un proceso de evolución que posiblemente implique muchas formas de reacciones nucleares. El fenómeno de la energía atómica proporcionó una clave decisiva para el viejo enigma de cuál podría ser la fuente de energía de nuestro Sol, así como de una posible relación entre los procesos nucleares que tienen lugar en el Sol y las estrellas, y el origen de los elementos químicos.

Pero ya antes, en la primera década del siglo 20, los científicos habían descubierto algo más de importancia fundamental: había algo muy especial acerca de las sustancias que producían los procesos de desintegración radiactiva. Algunos de esos productos de las transformaciones atómicas se parecían mucho a los elementos que hay en la naturaleza, y no podían separarse de ellos por medios químicos cuando estaban mezclados; sin embargo, tenían características radiactivas muy diferentes. Por ejemplo, la sustancia que entonces se llamaba “ionio”, que surge de la desintegración del uranio, parecía idéntica en lo químico al torio, pero se desintegraba en cosa de días, en tanto que la vida media del torio natural es tan larga (más de diez mil millones de años), que apenas podía calcularse entonces.

En 1910 Frederick Soddy sugirió que podría haber subespecies de uno y el mismo elemento, con diferentes pesos atómicos, pero con propiedades químicas prácticamente idénticas. Acuñó para éstas el término “isótopo”, que en griego significa “la misma posición”, para dar a entender que, desde un punto de vista químico, estas subespecies pertenecerían a la misma posición en el sistema periódico de Mendeléiev. Pocos años después los investigadores pudieron confirmar, por ejemplo, que el plomo que acompaña a los minerales de uranio tiene un peso atómico diferente al del que se encuentra en minerales de torio natural. Así, “el plomo no es plomo”, cadenas radiactivas diferentes terminan en diferentes isótopos de plomo.

Estos descubrimientos dejaron al descubierto la ambigüedad extraordinaria del concepto de elemento, ¡que había sido el fundamento entero de la química!

Para fines de los 1920, con el avance de Aston al inventar el espectrógrafo de masas y, por tanto, el de la capacidad de medir los pesos atómicos con una precisión mucho mayor, quedó claro que la existencia de isótopos distintos era una propiedad ubicua de los elementos químicos, y que prácticamente todos los elementos de la naturaleza, fueran radiactivos o no, consistían en una mezcla de isótopos en diferentes proporciones. Se hizo evidente que el número de isótopos es mucho más grande que el de los elementos, incluso el de los isótopos estables. El hierro, por ejemplo, tiene cuatro isótopos estables conocidos; el calcio tiene seis, y el estaño, con la marca más alta, tiene 10, todos en una abundancia significativa en la Tierra. Es la naturaleza de los procesos de transformación nuclear que isótopos diferentes de un mismo elemento por lo general tengan orígenes diferentes, prehistorias diferentes en la evolución del universo.

En la actualidad se conocen unos 3.000 isótopos diferentes, la mayoría de los cuales fueron creados por el hombre. ¡Eso corresponde a un promedio de cerca de 30 isótopos por cada elemento! La mayoría de éstos son de corta vida en su estado “libre”, pero, no obstante, representan modos de existencia de la materia realizables en nuestro mundo.

Todo esto implica añadir una nueva dimensionalidad al sistema periódico de Mendeléiev. El descubrimiento de los isótopos exigió una reformulación total de la química. Entonces, ¿cómo debemos conceptualizar ahora el ordenamiento de un “sistema periódico de los isótopos” que recién va emergiendo? La respuesta, hasta donde ha llegado ahora la ciencia, está inseparablemente ligada a las anomalías de los pesos atómicos.

Mendeléiev había fundado su sistema periódico en la posición o número ordinal de los elementos en el orden ascendente de sus pesos atómicos, al usar la comparación entre esta posición y la periodicidad de las características químicas y cristalográficas, para corregir los errores de las imprecisiones de medición de los pesos atómicos y determinar la posición de los elementos “faltantes” de la serie. El reto siguió siendo entender mejor la importancia de los valores de los propios pesos atómicos, los cuales manifestaron tanto las regularidades como las curiosas irregularidades. Por un lado, esos valores, sin importar las unidades que se usaran para expresarlos, mostraban una tendencia inconfundible a formar proporciones de números enteros. A principios del siglo 18, el químico inglés William Prout señaló que los pesos atómicos de los elementos parecían ser múltiplos integrales del peso atómico del hidrógeno, el elemento más ligero, y en eso fundó su hipótesis de que de algún modo el hidrógeno es el bloque básico que compone a los elementos.

Mendeléiev rechazó por principio este concepto reduccionista, que fue refutado mediante experimento por mediciones más precisas de los pesos atómicos. Un caso especialmente sorprendente era el cloro, que se reconoció como elemento químico en 1820, y cuyo peso atómico, en relación al del hidrógeno, es más o menos de 35,5. De hecho, cuando Mendeléiev armó su tabla periódica, listó en una aproximación muy general los valores de los pesos atómicos para las dos primeras “octavas” de su sistema, tal como se les conocía entonces, como sigue:

H 1

Li 7

Be 9,4

B 11

C 12

N 14

O 16

F 19

Na 23

Mg 24

Al 27,4

Si 28

P 31

S 32

Cl 35,5


¿Qué causa la mezcla de valores (casi, casi) integrales, así como claramente no integrales, con la distribución irregular de los “saltos” en los valores entre elementos sucesivos? ¿Significaba esto más elementos “faltantes” o incluso nuevos grupos químicos? ¿Elementos, quizás, de una clase diferente de la que Mendeléiev permitía?

Nuevas anomalías

Aquí, el descubrimiento de los isótopos y la medición subsiguiente de sus pesos atómicos trajo un avance decisivo. Nació una regularidad extraordinaria oculta hasta entonces, mientras que al mismo tiempo surgieron nuevas anomalías que permanecen, hasta la fecha, en el corazón de la física nuclear moderna.

Primero, se reconoció que, como los elementos que se dan en la naturaleza son en realidad mezclas de isótopos, al tener ellos mismos pesos atómicos diferentes, los valores previos medidos de los elementos reflejaban una suerte de promedio de los pesos atómicos de los isótopos correspondientes, “que se pesan” según los porcentajes relativos de los isótopos en la mezcla. La razón del valor de mitad integral del cloro, por ejemplo, yace en la circunstancia de que el cloro que se encuentra en la naturaleza lo compone una mezcla de dos isótopos, uno con peso atómico muy cercano a 35, y el otro con uno de 37, en una proporción de aproximadamente 3 a 1.

Al comparar uno con otro los pesos atómicos de los isótopos, en vez de con los de los elementos, las grandes divergencias con las proporciones en números enteros desaparecían y entraba en juego un nuevo conjunto notable de relaciones.

Las relaciones de los valores de los isótopos resaltan con más claridad cuando su referencia no es el hidrógeno, sino cierto isótopo específico del carbono (que hoy se denomina C–12). Cuando establecemos como unidad 1/12 del peso atómico del carbono–12, entonces resulta que los valores numéricos de los pesos atómicos de los isótopos conocidos varían, sin excepción, cuando mucho una décima de los valores en números enteros. En la mayoría de los casos la desviación es aun mucho menor.

Así, cada isótopo puede asociarse de forma inequívoca con cierto número entero, al que hoy se conoce como su “número de masa”, el cual casi, casi coincide con su peso atómico. El hidrógeno, por ejemplo, tiene en la naturaleza isótopos con números de masa 1 y 2; el oxígeno tiene tres: 16, 17 y 18; el estaño, diez: 112, 114, 115, 116, 117, 118, 119, 120, 122 y 124; etc. Era natural esperar que donde hubiera brechas en la serie de los números de masa, como entre el calcio–44 y el calcio–46, debía existir un isótopo de calcio adicional con número de masa 45, y probablemente uno inestable, pues eso explicaría su aparente rareza en la naturaleza. Sin duda, conforme los aceleradores y luego los reactores nucleares empezaron a producir grandes cantidades de isótopos nuevos, muchos de esos “huecos” en la serie de los isótopos se llenaron, y la serie vigente se amplió hacia arriba y hacia abajo. Difícilmente podría dudarse que los isótopos de un mismo elemento están ordenados de manera natural en la forma de números enteros sucesivos.

Pero, entonces, surge todo un nuevo conjunto de preguntas: ¿Por qué algunos isótopos son estables y otros no? ¿Por qué las brechas tienden a darse más seguido con los números impares? ¿Por qué razón algunos elementos tienen muchos isótopos y otros muy pocos o incluso sólo uno? ¿Cuál es la razón de ciertas pautas en la abundancia relativa de diferentes elementos en la naturaleza, cosa que no tiene relación obvia con las periodicidades de la tabla de Mendeléiev?

Entre tanto, la investigación de los elementos químicos en el espectro de los rayos X —de sus frecuencias resonantes de absorción y reemisión al irradiárseles con rayos X— aportó un nuevo cimiento físico para el ordenamiento de Mendeléiev de los elementos mismos, independientemente de los pesos atómicos: la serie de frecuencias espectrales de un elemento químico dado en los rayos X, cambia de modo gradual y por completo regular y sistemático conforme pasamos de un elemento al que le sigue en el sistema periódico. Fue posible predecir el espectro de rayos X de elementos aún desconocidos, e identificarlos y descubrirlos, aun en concentraciones muy pequeñas, mediante su diciente “sello distintivo” de rayos X. Pero el espectro de rayos X de los isótopos de un elemento dado es casi exactamente idéntico, al igual que su comportamiento químico.

Los isótopos y los números complejos gaussianos

Así que los átomos en nuestro universo parecen tener una naturaleza doble:

Primero, su identidad en tanto elementos químicos, que se refleja en su afinidad con otros elementos con los que forman compuestos químicos; en la clase de cristales que forman, solos o en combinación con otros elementos; en las condiciones en las que cobran forma sólida, líquida o gaseosa, y así sucesivamente; y en sus espectros ópticos y de rayos X.

Segundo, su “nueva” identidad como isótopos, en el marco de todos los descubrimientos que hemos resumido, los cuales forman el punto de partida principal para el dominio llamado “física nuclear”.

Por último, estos dos aspectos deben interconectarse íntimamente, de manera que aún no se entienden como es debido.

Queda mucho por hacer, pero sabemos que el surgimiento de la física nuclear, en el proceso que acabamos de esbozar, ejemplifica la forma del progreso del conocimiento humano que Bernhard Riemann describió en su famoso documento Sobre las hipótesis en que se fundamenta la geometría, como la generación de una multiplicidad de orden superior de la práctica humana desde una de orden inferior, mediante la integración de un principio físico adicional recién descubierto.

Entonces, ¿cómo debemos representar ahora el sistema de los isótopos que recién emerge? El enfoque más directo, dado el surgimiento de una nueva “dimensionalidad” en el sentido de Riemann, es el que originalmente empleó Carl Gauss en su tratamiento de los residuos bicuadráticos. Para proyectar el efecto combinado de dos principios ordenadores diferentes, Gauss extendió el dominio de los números ordinarios al introducir los llamados números enteros complejos imaginarios. El sistema de Gauss de los números enteros complejos puede representarse en términos visuales como el de puntos en la retícula de un plano, donde el llamado “eje real” horizontal representa el modo de desplazamiento que corresponde a los números ordinales, y el llamado “eje imaginario” vertical, el desplazamiento según el nuevo principio. La relación entre los dos principios de desplazamiento define un tercer principio.

¡Aplica esto ahora al ordenamiento de los isótopos! Piensa en cada isótopo como si estuviera asociado con un número entero complejo; por ejemplo, en la representación geométrica, por un lugar geométrico específico en la retícula, de la siguiente manera: el componente del isótopo sobre el “eje real” horizontal debiera ser el número ordinal del elemento correspondiente en el sistema periódico original de Mendeléiev, también conocido como su número atómico. La “parte imaginaria”, o sea, su componente en la dirección vertical, debiera ser su número de masa. Así, los isótopos de un elemento dado se ubican sobre líneas paralelas al eje vertical, a alturas que corresponden a sus pesos atómicos, o más bien al número entero más cercano.

Para ponerlo de modo más gráfico: el isótopo de un elemento de número atómico Z y masa M corresponde al número complejo gaussiano Z+iM.

Proyectar meramente los isótopos mediante números ordinales complejos, sólo sienta una base preliminar para empezar a trabajar en descubrir los principios físicos que subyacen en la existencia y transformaciones de los isótopos, y en la relación entre los procesos “químicos” y “nucleares”.

Un indicio decisivo es la pauta de discrepancias diminutas entre los valores físicos reales de los pesos atómicos, por un lado, y los números enteros de masa de nuestra proyección, por el otro. ¡Precisamente en esas discrepancias diminutas radica todo el potencial de la fuerza nuclear! Son análogas a las diferencias minúsculas entre el movimiento observado de Marte y el predicho conforme al supuesto del movimiento circular uniforme de los planetas que le permitió a Kepler descubrir el principio de la gravitación universal.

Por ejemplo, ¿cuál es la relación entre los pesos atómicos de dos átomos, y el de uno que hipotéticamente podría conformarlo cierta suerte de fusión de los dos?

Uno de los casos más simples sería combinar dos átomos del isótopo de hidrógeno de número ordinal 1+2i (llamado deuterio), para obtener uno del isótopo de helio 2+4i (la forma más común del helio, el helio–4). En términos amplios, esta idea corresponde a lo que se cree que ocurre en el Sol. Aquí, los números ordinales complejos se suman de manera algebraica. Pero, ¿qué hay de los pesos atómicos reales?

El peso atómico del deuterio, a partir de una medición real, es de 2,014102 unidades de masa, cuyo doble es 4,028204. Por otra parte, el peso atómico de un átomo de helio–4 es 4,002603, que es ligeramente menor que el primero por 0,025601 unidades de masa o un 0,6%. ¿Qué podría deducirse de la observación de que un átomo de helio–4 es 0,6% más ligero que dos átomos de deuterio tomados por separado? Si fuera posible que los átomos de deuterio se reorganizaran ellos mismos en un átomo de helio, el resultado implicaría una disminución neta de la masa.

De hecho, se cree que la fusión de isótopos de hidrógeno para formar helio es la fuente principal de energía del Sol. Las principales reacciones, que cobran la forma de una cadena, parecen ser más complicadas que las de nuestro caso hipotético, pero comparten una característica común: a fin de cuentas, el peso atómico del producto o productos finales es menor que el de los reactivos. ¿Qué significa eso?

Hasta donde sabemos hoy, la respuesta general de Einstein es correcta; a saber, que el ritmo de generación de “masa faltante” es directamente proporcional al poder que genera la estrella. No podemos medir de modo directo la lenta pérdida de masa del Sol, por ejemplo, pero podemos observar la misma clase de relación proporcional de manera bastante directa en incontables procesos radiactivos y reacciones nucleares. Eso también se aplica a la fisión nuclear, donde la suma de las masas de los fragmentos que genera la fisión de un núcleo de uranio es muy ligera, pero mensurablemente más pequeña que la masa del núcleo original. Para ser más precisos, la masa “faltante” asciende a 0,087% de la del núcleo de uranio.

Por ende, parece que esas discrepancias diminutas en términos de los pesos atómicos son la clave del poder del Sol para mantener nuestra biosfera, y la de nuestro propio poder para mantener a la población mundial fundados en la energía nuclear en el período venidero. Y, no obstante, tal como Kepler enfrentó la anomalía de los ligeros “errores” en las posiciones predichas de Marte en relación con los cálculos reduccionistas de Ptolomeo, Tico Brahe y Copérnico —errores que sólo reflejan la existencia de un principio superior que él luego identificó como la gravitación universal—, así hoy necesitamos dar un salto conceptual para descubrir los principios de una nueva física nuclear.

Sólo señalaré, como conclusión, que las características magnéticas de un isótopo podrían considerarse, en cierto sentido, como el componente “imaginario” del valor de la función de masa para el ordinal complejo correspondiente. Al incluir la dimensión adicional de los isómeros nucleares (llamados estados excitados de los núcleos, que tienen características magnéticas alteradas), podemos construir una función de superficie de Riemann más amplia para los principios en cuestión.


[1]Timeo o de la naturaleza, Platón (edición electrónica de www. philosophia.cl, Escuela de Filosofía de la Universidad ARCIS).