Estudios estratégicos
La economía de isótopos
por Jonathan Tennenbaum
Prólogo
El tema de este ensayo es un componente crucial de la
movilización económica que debe emprenderse en el futuro
inmediato, si es que ha de salvarse al mundo de un derrumbe físico y
sociopolítico de una gravedad sólo comparable, a escala
planetaria, a lo que ocurrió en Europa en el período que
llevó el estallido de la “peste negra” en el siglo 14. El
problema esencial que aquí se aborda, es cómo superar las
consecuencias de la salvaje destrucción a fondo de capacidades
industriales y científico–tecnológicas, y del nivel
educativo, aptitudes y facultades cognoscitivas de la fuerza laboral, que ha
ocurrido en las principales naciones industrializadas tanto de Oriente como de
Occidente con las políticas de globalización,
desregulación, privatización, “terapia de choque” y de
la “sociedad posindustrial” de las últimas décadas.
Cualquier programa serio de movilización y reconstrucción
económica debe tomar en cuenta el hecho de que el más grande
repositorio orgánicamente interconectado de investigación
científica del más alto nivel, de mano de obra de técnicos
y de tecnología avanzada, y de capacidad industrial en este planeta, se
localiza en y alrededor de los sectores nucleares de Estados Unidos, Rusia,
Ucrania, Japón, Alemania, Francia, India, China, Sudáfrica,
Argentina, Brasil y algunos otros; y en las ramas de la astrofísica, la
tecnología espacial, la geología y la biomedicina que están
vinculadas de manera más estrecha a la investigación y las
aplicaciones de la física nuclear. Por la propia naturaleza de la ciencia
nuclear, sus raíces e historia, y las necesidades del mundo en los
próximos 50 años, debe cobrar forma específica una
movilización del sector nuclear del mundo, como la vanguardia y
locomotora de una movilización económica general de las
principales naciones del orbe. Luego de hablarlo con Lyndon LaRouche, S.
Subbotin, del Instituto Kurchatov, y F. Gareev, del Instituto de Investigaciones
Nucleares Conjuntas en Dubna, Rusia, he decidido llamarla la
“economía de isótopos”.
* * *
Hace aproximadamente un siglo se demostró de manera experimental que
los elementos químicos que se dan de forma natural, cuyo ordenamiento
armónico Dimitri Mendeléiev incorporó en su sistema
periódico, no eran cuerpos homogéneos, sino más bien
mezclas de distintas especies de átomos —isótopos— con
comportamientos químicos casi idénticos, pero propiedades
físicas muy diferentes. La investigación de esta “nueva
dimensionalidad” del sistema periódico y de los procesos
subyacentes de transformación de los átomos, a la larga
llevó al descubrimiento de la fusión, la fisión y otras
reacciones nucleares, a la realización de la primera fisión
nuclear de reacción en cadena, y a las primeras armas atómicas
durante la Segunda Guerra Mundial. La creación de estos mecanismos
dependió de la separación del isótopo puro U–235 del
uranio natural, y de la generación artificial, en reactores nucleares, de
los primeros kilogramos de plutonio–239: una especie de átomos
hasta entonces prácticamente ausentes en el ambiente natural de la
Tierra.
Hoy, más de 60 años después de la primera
reacción nuclear en cadena producida por el hombre, la producción
de energía a gran escala a partir de reacciones de fisión nuclear
se ha convertido en una realidad en 30 países. Se conocen aproximadamente
3.000 isótopos diferentes, la mayoría generados de manera
artificial, y al presente más de 200 tienen un uso comercial. Los
servicios médicos modernos y un sinnúmero de otras actividades
vitales de la sociedad moderna serían impensables sin el uso cotidiano de
más de cien isótopos radiactivos que se producen en reactores
nucleares y aceleradores de partículas. Entre tanto, la creación
de armas nucleares cambió profundamente la historia, al definir toda la
era de la “Guerra Fría” y crear una situación en la
que emprender una guerra a gran escala, de la forma conocida hasta la Segunda
Guerra Mundial, equivalía prácticamente a un acto de suicidio. Sin
duda, muy pocos hoy, aun entre las personas con una alta educación
nominal, tienen conciencia cabal del grado al que las implicaciones de lo que en
un principio parecían matices “infinitesimales” en el
comportamiento de los elementos químicos han definido nuestro mundo
actual.
|
Una economía de isótopos a gran escala exigirá que
dominemos la energía de fusión termonuclear. Toro Europeo Conjunto
(o JET), reactor experimental que generó más de 16 megavatios de
electricidad en 1997. (Foto: EFDA–JET). |
Y, no obstante, las implicaciones de lo que ha puesto en marcha el
descubrimiento de la radiactividad y los isótopos, al desarrollar el
entendimiento “kepleriano” de Mendeléiev del sistema
periódico, van mucho más allá de cualquier cosa que el
mundo haya visto hasta ahora.
Como reconocieron Vladimir Vernadsky y otros hace ya un siglo, el
descubrimiento de nuevos principios dinámicos que trascienden la
química del sistema periódico y colindan estrechamente con los
orígenes de nuestro sistema solar y de los propios elementos,
implicó desencadenar una revolución fundamental en todos los
aspectos de la relación del hombre con la naturaleza. La ciencia ha
depositado un nuevo poder en manos del hombre: el poder de generar un
“fuego” millones de veces más concentrado que los procesos de
combustión química, los cuales han representado un fundamento
primordial de la existencia humana civilizada desde el regalo legendario que nos
dio Prometeo; un nuevo poder suficiente para impulsar una nave 20 veces
alrededor de la tierra con 55 kilogramos de combustible; lo suficiente, en
principio, para sustentar a una población humana floreciente muchas veces
más grande que la que existe hoy; pero también un poder de crear,
en la Tierra, condiciones físicas que de otro modo sólo se
encuentran en las estrellas y en el centro de las galaxias; un poder que abre la
vía, en el futuro no muy lejano, a la expansión de la actividad
humana a todas las regiones internas del sistema solar y, a la larga, más
allá.
El dominio incipiente del hombre del poder de transmutar los elementos
químicos y de crear nuevos estados de la materia que antes no
existían en la Tierra, y tal vez ni siquiera en el universo entero,
demuestra una vez más que vivimos en el universo de Platón, no en
el de Aristóteles. Éste es un universo en el que los procesos
son primordiales, en el que “nada es permanente, sino el cambio
mismo”, y en el que, al tratar cosas tales como los átomos y las
llamadas partículas elementales, constantemente tenemos que hablar, no de
un “esto”, sino de “lo que posee tal cualidad” (como
escribió Platón en el Timeo; ver a continuación).
Más que en cualquier “estado de fase” previo de la
economía física del hombre, el surgimiento de lo que llamo la
“economía de isótopos” implica una condición en
la que la práctica social necesariamente debe orientarse hacia ideas
veraces, hacia los principios universales descubribles que gobiernan el
cambio y la evolución del universo, y no en lo primordial hacia los
objetos de los sentidos. Esto significa el fin del empirismo y del
materialismo.
Semejante revolución tiene implicaciones políticas profundas.
Su realización de plano no es compatible con seguir tolerando una
organización oligárquica irracional de la sociedad, en la que las
decisiones esenciales que conciernen al futuro de las naciones y el destino de
toda la humanidad están sujetas a los antojos de un número
minúsculo de familias influyentes, en tanto que la vasta mayoría
de la humanidad vive en la ignorancia y la servidumbre. La revolución que
anunció Vernadsky como la llegada de la noosfera, y que consideró
como inseparable de la llegada de una era de poder nuclear, implica una sociedad
que vive un concepto prometeico del hombre; significa una sociedad cuya
actividad giraría en torno al principio del descubrimiento
científico creativo, cual los planetas alrededor de nuestro Sol.
Significa una población altamente educada, capaz del autogobierno
deliberativo y organizada sobre la base de un entendimiento científico de
la relación dinámica entre el individuo creativo soberano, la
nación soberana y los intereses de toda la humanidad. En una palabra, es
la imagen de la sociedad que Leibniz y el “Prometeo estadounidense”
Benjamín Franklin tenían en mente en el diseño original de
una república en el Nuevo Mundo. Esta visión del futuro de la
humanidad inspiró el enorme optimismo que la gente alrededor del mundo le
atribuye a la energía nuclear —“el átomo al servicio
del hombre”— de oriente a occidente y de norte a sur.
La guerra del Olimpo contra el progreso
La respuesta de los aspirantes a “dioses del Olimpo”
oligárquicos a este desafío fue explícita y salvaje. Desde
mediados de los 1960 en adelante se desencadenó una guerra
psicológica y política general contra las instituciones de la
sociedad industrial y contra la noción misma del progreso
científico y tecnológico. El ataque, que se centra en EU,
Inglaterra y la Europa Occidental continental, lo anunciaron de antemano con
bombo y platillo Bertrand Russell y sus redes, y lo pusieron en práctica
prestantes instituciones financieras angloamericanas y agencias de inteligencia
allegadas a la monarquía británica y a los círculos
oligárquicos del continente europeo. Yace en el origen de la
propagación deliberada de la “contracultura” juvenil del
rock, las drogas y el sexo, el nuevo movimiento de izquierda, la
revolución estudiantil de 1968, la propaganda maltusiana de los Límites al crecimiento del Club de Roma y el movimiento
ambientalista “verde” a escala mundial.
|
Desde mediados de los 1960 ha habido toda una ofensiva contra la
noción misma del progreso científico y tecnológico. El
libro de 1972 del Club de Roma, Los límites al crecimiento (izq.), fue
de gran influencia en esto. El movimiento de LaRouche contraatacó de
inmediato con un folleto que circuló ampliamente en las universidades, y
luego con el libro de Lyndon H. LaRouche de 1983, No hay límites al
crecimiento (der.). |
|
Estas fuerzas escogieron la fuerza nuclear, la encarnación
más clara del progreso científico y tecnológico, y la
tecnología más decisiva para el desarrollo mundial en el
período de la posguerra, como un foco importante de su ofensiva. En
paralelo con la intensificación de la campaña de terror
antinuclear, se tomaron medidas institucionales para parar la
proliferación y avance de la energía nuclear en todo el mundo: el
Gobierno de Jimmy Carter empezó el giro de 180 grados para darle marcha
atrás a la sabia política del presidente Eisenhower de los
“átomos para la paz”. Intentó imponer una virtual
moratoria a las exportaciones nucleares hacia los países en vías
de desarrollo con el pretexto de la “no proliferación”, se
esforzó por desmantelar las capacidades de investigación de fondo
del propio EU, y por retrasar o detener, de ser posible, la realización
de la fusión controlada como una fuente de energía del futuro. Los
ambiciosos programas nucleares de Brasil, Argentina, México y otros
países en vías de desarrollo, y la suerte de cooperación
norte–sur que ejemplificó el acuerdo nuclear de largo plazo entre
Alemania y Brasil, fueron aplastados por la oposición del Gobierno de
Carter y sus sucesores. En medio de la histeria antinuclear de los 1980,
fraguada por los grandes órganos de difusión, el programa nuclear
de Alemania, otrora líder mundial en la exportación y
transferencia de tecnología nuclear, fue cancelado, junto con los
programas más pequeños, pero cualitativamente significativos, de
Suecia, Italia y algunas otras naciones. Con el desplome de la Unión
Soviética, y el subsiguiente saqueo y destrucción desaforados de
las capacidades científico–tecnológicas e industriales de
esa nación, el sector nuclear más grande del mundo, aparte del de
EU, casi desapareció, sólo para ser en parte revivido en el
período más reciente.
Toda esta destrucción, y más, se la había prometido ya
al mundo Bertrand Russell en sus vehementes opúsculos antinucleares de
los 1940 y 1950. En 1949 Russell llegó tan lejos como a proponer que se
arrojaran bombas atómicas contra la Unión Soviética, en
caso de que los soviéticos se rehusaran a someterse a un gobierno mundial
con un monopolio absoluto de la tecnología nuclear. El razonamiento
esencial de Russell —de que la existencia de naciones de veras soberanas
era “demasiado peligrosa” como para tolerarse en una era de armas
nucleares— sigue siendo el fundamento para el uso de la llamada “no
proliferación” como pretexto para negarle a todas las naciones y
pueblos el derecho a disfrutar a plenitud y sin trabas los frutos del progreso
científico y tecnológico. Sigue siendo la base de un
régimen de “apartheid tecnológico” de facto,
dirigido sobre todo contra la mayoría de la humanidad que vive en el
llamado Tercer Mundo.
Pero los intentos oligárquicos por extinguir la revolución
nuclear empezaron mucho antes del descubrimiento de la fisión en
1934–38. Se descubrieron por sí mismos en la trama de la
persecución antisemita contra la católica polaca Marie Curie en
Francia, en la oposición acérrima al descubrimiento de Max Planck
al terminar el siglo, y en el comportamiento intimidatorio como de mafioso de
Niels Bohr y otros hacia Schrödinger y Einstein en las conferencias de
Solvay de 1927. Bohr y compañía explícitamente prohibían cualquier clase de pensamiento que entrara en conflicto
con la doctrina empirista oculta escogida de la “complementariedad”
y el supuesto carácter de suyo estadístico indeterminado de los
procesos microfísicos.
En oposición a Einstein, Shrödinger y otros que procuraban
conceptualizar el principio superior que subyacía en el aparente carácter discontinuo de los fenómenos cuánticos,
Bohr, Max Born, Wolfang Pauli y demás afirmaron de manera arbitraria que
la realidad en la escala microfísica ¡intrínsecamente rebasa las facultades conceptuales de la mente humana! Este salvaje ataque
explícito al principio de la creatividad científica, apoyado por
el dominio oligárquico creciente del financiamiento a la
investigación científica, en especial en la estela de la Primera
Guerra Mundial, tuvo el obvio propósito subyacente de romper lo que
quedaba del espíritu prometeico de la ciencia física (que
había resurgido durante el Renacimiento), y de esclavizar a la ciencia a
los planes oligárquicos. En la medida que los frutos de la
investigación científica eran necesarios por propósitos
militares y otros motivos “prácticos”, a los
científicos se le permitiría trabajar, pero no pensar de
modo en verdad creativo. Esto repetía la táctica que alguna vez
habían desplegado Laplace y compañía para aplastar a los
círculos de Monge y Carnot, y convertir a la prometeica École
Polytechnique en un instrumento de la ofensiva imperial de
Napoleón.
En la secuela, la física nuclear teórica se elaboró a
manos de un “jardín de niños” de jóvenes
científicos de reconocida inteligencia y aptitud, en lo que en gran
medida hasta hoy sigue siendo una mezcla ptolomeica de modelos mutuamente
contradictorios, formalismos matemáticos y procedimientos de
cálculo que pueden ser de gran utilidad e incluso indispensables en
ciertas esferas específicas de aplicación —¡tales como
fabricar bombas!—, pero no encarna ningún concepto inteligible del
universo. No sorprende que en los acontecimientos tormentosos que llevaron al
descubrimiento de la fisión nuclear, la llamada
“teoría” quedara muy rezagada del trabajo experimental, que
era el verdadero “motor” de desarrollo. El descubrimiento mismo de
la fisión se reprimió por cuatro años, porque los
teóricos consideraban “imposible” ese proceso. El
rápido avance subsiguiente de la física y la tecnología
nucleares, desde los proyectos de las bombas durante la guerra, hasta incluso la
realización de la energía nuclear de uso civil y el vasto complejo
de aplicaciones médicas y de otra clase de los isótopos, lo
impulsaron en gran medida personas adiestradas en la tradición de la
química física, la geoquímica y otros campos relacionados
de las ciencias naturales orientados a la industria. Estas personas,
ejemplificadas por William Harkins, los Noddack o Vernadsky, con frecuencia
despreciaban la sofistería matemática de los teóricos, a
los que se había elevado a la talla de “altos sacerdotes de la
ciencia”.
Pero el estado de la física nuclear en la actualidad no es menos un
producto de las presiones externas enormes impuestas a la ciencia y a muchos de
los científicos más brillantes en el marco de los proyectos de la
bomba atómica durante la guerra y la subsiguiente Guerra Fría. La
subordinación de algunas de las ramas más revolucionarias de la
investigación fundamental en las ciencias físicas a los objetivos
militares, y la imposición de regímenes estrictos de
confidencialidad tanto en Oriente como en Occidente, que impedían el
libre intercambio de ideas científicas y resultados experimentales,
prácticamente no tuvieron precedente en la historia milenaria de la
ciencia. Estas circunstancias tuvieron un efecto devastador en la integridad
intelectual de muchos de los científicos más brillantes, y en el
desarrollo orgánico de la ciencia como un todo. Aunque la pertinencia
militar de ramas científicas avanzadas como la física nuclear hizo
que se les dedicaran recursos enormes, el ambiente controlado en el que muchos
científicos trabajaban se convirtió en una barrera poderosa al
progreso científico fundamental.
|
Terroristas enmascarados atacan una planta nuclear en Alemania en 1986. La
histeria antinuclear tuvo éxito en cancelar el programa nuclear de
Alemania, que otrora fuera líder mundial en la exportación de
tecnología nuclear. |
|
El infame llamado de Bertrand Russell a favor de una guerra nuclear contra
la Unión Soviética apareció publicado en The Bulletin of
the Atomic Scientist el 1 de octubre de 1946. De estallar pronto la guerra,
antes de que Rusia tenga armas nucleares, escribió, Estados Unidos de
seguro ganaría, “y la victoria estadounidense sin duda
llevaría a un gobierno mundial bajo la hegemonía de Estados
Unidos, un desenlace que, por mi parte, recibiría con entusiasmo”.
En cuanto a un acuerdo de la ONU para establecer un gobierno mundial, “si
Rusia consintiera de buena gana, todo marcharía bien. Si no, fuese
necesario ejercer presión, incluso al grado de arriesgarse a una guerra,
pues en tal caso es bastante seguro que Rusia accedería. Si Rusia no
accede a unirse a la formación de un gobierno internacional, tarde o
temprano habrá guerra; por tanto, es prudente usar cualquier grado de
presión que pueda resultar necesaria”. (Foto: Biblioteca del
Congreso de EU). |
Este no fue un mero efecto colateral fortuito. Con las políticas
estratégicas que promovieron en un principio Russell, Leo Szilard y
otros, que luego vinieron a conocerse como el “equilibrio del terror
nuclear” y la “destrucción mutuamente asegurada (o
MAD)”, la supresión de avances fundamentales devino cada vez
más en un rasgo deliberado de la gestión de la
investigación científica. El argumento esencial de la
facción de Russell era que una vez que EU y la Unión
Soviética tuvieran un número suficiente de ojivas nucleares y
sistemas de lanzamiento como para infligir un daño catastrófico a
la otra parte, aun después de haber sufrido el primer golpe, se
habría alcanzado cierta “estabilidad” en la forma de una
mutua disuasión, la cual se mantendría a cualquier costo. Por
consiguiente, ambas partes acordarían no tomar ciertas direcciones de
investigación y desarrollo que pudieran trastocar las reglas del juego.
Sin embargo, esto tuvo como consecuencia necesaria que la posibilidad misma
de las revoluciones científicas fundamentales se viera, cada vez
más, ¡como una amenaza potencial al equilibrio estratégico y,
por tanto, a la seguridad nacional!
Encadenando a Prometeo
Esta visión, de que a Prometeo debía encadenársele en
el interés de preservar la estabilidad estratégica, se
institucionalizó en ciertos acuerdos a los que llegaron los Gobiernos
soviético y estadounidense mediante las conferencias de Pugwash de
Bertrand Russell y otras “vías extraoficiales”, que se
remontan al período de Jruschov posterior a 1957, y que luego
ejemplificó el tratado de Limitación de los Sistemas de
Proyectiles Antibalísticos que se negoció con Henry Kissinger. Por
ende, se suponía que la competencia entre superpotencias se
limitaría a una estrecha gama de direcciones “permitidas”
—con cierto número de trampas de ambos bandos, por supuesto—,
mientras que al mismo tiempo ambas partes cooperaban para impedir que un tercer
país desarrollara capacidades científicas y tecnológicas
“peligrosas”. La supresión activa de los avances
científicos fundamentales por medios burocráticos y otros, no
sólo se aplicaba a la física nuclear y a ramas directamente
ligadas a las armas nucleares, sus sistemas de lanzamiento y los posibles medios
de defensa contra ellas, sino también a ámbitos revolucionarios de
la biofísica (el bioelectromagnetismo) y muchos otros campos de la
ciencia.
Estos acuerdos entre los Gobiernos estadounidense y soviético
definieron los acontecimientos mundiales de todo el período, hasta el
colapso de la Unión Soviética. Sus efectos se extendieron incluso
a las aulas escolares. Despejaron el camino, por ejemplo, para las reformas
educativas liberales de los 1960 en EU y otros países de la OTAN, que
degradaron la función de la “ciencia física dura” en
la educación general a favor de las denominadas ciencias sociales, y para
el ataque subsiguiente al concepto del progreso científico y
tecnológico. Con la fundación del Instituto Internacional de
Sistemas de Análisis Aplicados (IIASA) como un proyecto conjunto de los
principales elementos de la élite angloamericana y la nomenklatura soviética, salió a relucir el concepto oligárquico
subyacente de los viejos arreglos “de condominio” entre ambos
bandos: dirigir el mundo mediante métodos intrínsecamente
contrarios al impulso prometeico de la ciencia. Muchos en el bando
soviético no se percataron de que la eliminación de la
Unión Soviética, y en especial de sus potencialidades
científico–tecnológicas avanzadas, estaba al principio en la
lista de prioridades.
El único intento sustancial por liberar al mundo de estas
políticas fue la lucha de Lyndon LaRouche por cambiar de manera
fundamental las relaciones estratégicas entre las dos superpotencias
nucleares, con centro en un compromiso de mutuo acuerdo tanto para desarrollar
como para desplegar sistemas de defensa antibalísticos contra
proyectiles, fundados en “nuevos principios físicos” (a veces
llamados armas de energía dirigida o de rayos). Esto hubiera eliminado la
doctrina de la “destrucción mutuamente asegurada” y, por
tanto, el juego entero de Bertrand Russell y Szilard, y al mismo tiempo le
hubiera permitido a las dos naciones avanzar hacia una economía
“impulsada por la ciencia”, en la que las repercusiones civiles
revolucionarias de la investigación de “nuevos principios
físicos” recompensaría con creces la inversión en los
sistemas de defensa.
Por desgracia, el secretario general soviético Yuri Andrópov
rechazó la propuesta que LaRouche había comunicado y explorado en
intercambios “extraoficiales” a nombre del Gobierno de Reagan. Seis
años después, la Unión Soviética se vino abajo, como
LaRouche había advertido que lo haría si se rechazaba su
propuesta. La política de destruir la capacidad
científico–industrial de fondo de la URSS avanzó a todo
galope. Pero con el fin de la Guerra Fría, desde una perspectiva
oligárquica, ya no había necesidad de continuar la
inversión pública a gran escala en la ciencia y tecnología
avanzadas en EU y Europa Occidental. Tampoco había ya ninguna
“necesidad” de mantener una base industrial versátil. Se
abrieron las compuertas de la desindustrialización y
“deslocalización” desaforada de la producción a
naciones con “mano de obra barata”, de la mano con el ascenso de una
burbuja especulativa gigantesca en el sistema financiero. Para la mayoría
de los jóvenes que crecían en las naciones otrora
industrializadas, el verdadero progreso científico y tecnológico
es, en el mejor de los casos, un recuerdo distante que recibieron de segunda
mano.
Hemos llegado al final del ciclo. De no dársele marcha atrás
pronto a la destrucción de gran parte de todos los potenciales
científico–tecnológicos de la humanidad, la pérdida
de mucha de su mano de obra mejor calificada, y la estupefacción de la
población en los países otrora industrializados, se
condenaría a la economía mundial a un inevitable desplome
físico. No hay modo de que las naciones del mundo en vías de
desarrollo, entre ellas China e India, con sus océanos de pobres, puedan
generar las tecnologías que necesitan para su supervivencia en el largo
plazo, sin reactivar la clase de capacidades científicas e industriales
en EU, la antigua Unión Soviética y Europa que eran típicas
de las primeras décadas del desarrollo de la energía nuclear. El
mundo enfrenta una simple alternativa: o emprender una movilización
económica, retomando el camino del desarrollo de la “era
nuclear” que Vernadsky y otros habían previsto, o recaer en una
edad oscura genocida. ¡Hay que liberar a Prometeo! La civilización
no puede sobrevivir sin revoluciones científicas.
Un renacimiento nuclear
Al presente el mundo es testigo de las primeras etapas de un renacimiento
de la energía nuclear, que no sólo abarca a los principales
países en vías de desarrollo como China, India, Sudáfrica,
Argentina y Brasil, sino también a Rusia e incluso a naciones
occidentales del sector avanzado como EU, que prácticamente habían
abandonado sus otrora ambiciosos programas de energía atómica por
necias razones ideológicas, hace unos 30 años. Si el mundo no
desciende a una era de tinieblas de caos y guerra, se prevé un
período de construcción a gran escala de plantas nucleares, aunque
sólo sea por la pura escala y rapidez de la expansión de la
demanda de fuerza eléctrica y otra, y por la necesidad de renovar grandes
segmentos de la capacidad de generación eléctrica que están
llegando al final de su vida útil.
No obstante, el mundo en el que vivimos ahora no es el mismo que al momento
en que se abortó el desarrollo de la energía nuclear hace tres
décadas. Incluso sería imposible ahora que un cometido total de
emprender un programa de construcción de plantas nucleares compensara el
grave daño que la economía mundial, y la civilización
humana en general, han sufrido a consecuencia del sabotaje al desarrollo de la
energía nuclear y de la virtual guerra contra la cultura industrial, de
la cual la tecnología nuclear era un elemento de vanguardia decisivo.
Buena parte de las capacidades científicas y de ingeniería que
alguna vez tuvieron EU, Alemania, Rusia, Italia, Suecia y otros países,
simplemente ya no existen. Tienen que reconstruirse en un proceso que
tomará una generación o más.
Entre tanto, estamos en el umbral de retos enormes que encara la humanidad,
mismos que los primeros arquitectos del desarrollo de la energía nuclear
habían reconocido hace 50 años en el horizonte del futuro: la
necesidad de producir grandes cantidades de agua dulce mediante la
desalación u otros medios artificiales; la necesidad de remplazar la
combustión de productos de petróleo con una combinación de
electricidad y combustibles sintéticos basados en el hidrógeno; la
necesidad de aplicar densidades energéticas mucho mayores a la
extracción, procesamiento y reciclamiento de materias primas
básicas, y más.
Para cumplir con todos estos requisitos, debe emprenderse ahora una nueva fase revolucionaria en el desarrollo de la energía nuclear.
Yo la bautizo como la “economía de
isótopos”.
¿Qué es la economía de
isótopos?
El marco inmediato para el surgimiento de la economía de
isótopos es el proceso de transición de la economía
física mundial, de la actual función aún dominante de los
combustibles fósiles, a la energía nuclear como la base principal
de los sistemas mundiales de generación de fuerza, tanto en
relación con la generación eléctrica, así como de,
cada vez más, calor para procesos industriales y la producción de
combustibles sintéticos de hidrógeno que abarquen un porcentaje
creciente del consumo total de combustibles químicos. Esta primera etapa
del proceso depende de reactores de fisión nuclear, con un acento cada
vez mayor en los de alta temperatura (sistemas de neutrones lentos y
rápidos refrigerados por gas, así como por metales
líquidos) y en un ciclo de combustible integrado, con un reprocesamiento
y reciclamiento exhaustivo de materiales fisibles, y el empleo de torio,
así como de uranio y plutonio. Las existencias necesarias de reactores de
fisión abarcan una amplia gama de diseños diferentes, entre ellos
pequeñas unidades modulares fabricadas en serie, así como de
tamaño mediano; reactores con diversas optimizaciones para su uso como
generadores eléctricos, fuentes de calor industrial, desalación, y
producción de hidrógeno y otros combustibles sintéticos;
para criar combustible de fisión y transmutar desechos nucleares, para la
propulsión de naves, etc. Los reactores que necesitan poca o ninguna
supervisión, y que funcionan por períodos muy largos sin
reabastecerse de combustible —las llamadas “baterías
nucleares”— pueden desempeñar una función importante
en las regiones remotas y en vías de desarrollo del mundo.
Esta transición a la energía nuclear como el cimiento de los
sistemas energéticos del mundo necesita del fortalecimiento a gran escala
de capacidades industriales para la separación de isótopos y el
reprocesamiento de materiales nucleares, con un acento en el uso de
tecnologías revolucionarias de láseres y plasmas. Dicho
fortalecimiento proporciona un trampolín inmediato para que surja la
economía de isótopos.
La “economía de isótopos” se caracteriza por la
combinación de cuatro aspectos principales:
Primero, la economía de isótopos significa incorporar
a la economía toda la serie indeterminada de especies individuales de
átomos conocidas como “isótopos”, de los cuales hoy
conocemos 3.000, en tanto instrumentos completamente diferenciados de la
actividad humana. Así, el sistema conocido de los más de 92
elementos de la tabla periódica de Mendeléiev lo
remplazará, en la práctica económica amplia, un
“sistema de isótopos” incomparablemente más complejo y
multifacético. Al principio, estos avances se concentrarán en un
subconjunto de más o menos 1.000 isótopos ahora conocidos con una
vida relativa más larga; sin embargo, este número después
crecerá, pues los medios están ideados para alargar aun la vida de
isótopos de muy corta vida, al modificar o incluso suprimir la
radiactividad del núcleo inestable y hacerlos aprovechables en
términos económicos, al “sujetarlos” a
geometrías físicas convenientes.
Al mismo tiempo, la economía de isótopos ampliará de manera sistemática la serie de los
isótopos más allá de los que hoy conocemos, en lo profundo
de la gama de los nuevos elementos superpesados (transuránicos) y los
isótopos “exóticos” de elementos actuales. Cada una de
esas especies constituye una condición singular del universo; cada una
posee un haz de características y anomalías únicas en
relación con las otras, lo que enriquece la gama de grados de libertad en
la evolución de la humanidad y del universo.
Segundo, la forma de utilización económica de los
isótopos mismos cambiará de modo radical, al extenderse mucho
más allá de los usos ahora imperantes como fuentes de
radiación ionizante, como los rastreadores radiactivos, y como
herramientas de investigación científica especializada, para
enfocarse en aplicaciones de una escala mucho mayor de la “afinación” exquisitamente fina de los procesos
subatómicos, tanto en cuanto al dominio inorgánico como con
respecto a la función específica de los isótopos en la
esfera de los procesos vivos. En las primeras fases de la economía de
isótopos, tienen una importancia inmediata las diferencias de masa, y
sobre todo las de las propiedades magnéticas del núcleo de los
isótopos, que interactúan entre sí y con las estructuras de
electrones en su ambiente mediante procesos hoy denominados “interacciones
hiperfinas” y de “resonancia magnética nuclear”. Este
avance puede comparase de manera útil con la introducción del
principio del “bien temperado” en la polifonía vocal en la
música, donde cambios pequeños en la entonación hacen que
surjan nuevos “entrecruces de voces”, lo que resulta en un poder
vastamente ampliado en la comunicación de ideas.
Al explotar en su más amplia extensión las implicaciones de
la ambigüedad que surgió en la química con el descubrimiento
de diferentes isótopos de un mismo elemento, la humanidad hace accesible
una “cardinalidad superior” de potencialidades, incomparablemente
más grande que lo que el mero aumento numérico de las especies
atómicas explotables antes mencionadas podría sugerir. Si, por
ejemplo, sintetizamos una molécula orgánica que tiene cuatro
átomos de carbono en posiciones asimétricas, entonces, al elegir
para cada “carbono” alguno de sus dos isótopos estables,
C–12 o C–13, obtenemos 16 moléculas diferentes con la misma
estructura química, pero diferentes propiedades magnéticas de
“afinación fina” y otras. Si incluimos el isótopo de
larga vida C–14, el número aumenta a 81. Si además hay 5
átomos de hidrógeno en la molécula, entonces, al escoger
entre el hidrógeno común y el isótopo estable deuterio,
¡resultan hasta 2.592 moléculas diferentes!
Los “materiales isotópicamente diseñados”, que se
sintetizan a partir de isótopos puros o de combinaciones selectas de
ellos que poseen propiedades físicas “colectivas” novedosas,
comenzarán a remplazar a las clases más primitivas de materiales
que se emplean hoy en la actividad humana. Algunos de éstos ya
están desarrollándose en la actualidad. Además de sus
características térmicas, magnéticas, eléctricas y
mecánicas especiales, estos materiales desempeñarán una
función esencial en la realización de nuevas formas de
energía nuclear, y en la generación y aplicación de
radiación coherente de longitud de onda ultracorta, tal como la de los
rayos láser gama.
Al mismo tiempo, la humanidad está en el umbral de hacer avances
revolucionarios en la biología y la medicina, que están
relacionados con el entendimiento de cómo la distinción
fundamental entre los procesos vivos y los inertes, que demostraron de la
manera más definitiva Luis Pasteur y Vernadsky, se expresa a escala
subatómica. Aunque ahora no podemos predecir la forma precisa que
cobrará esta revolución, ya sabemos que tendrá mucho que
ver con la función específica de los isótopos en los
procesos vivos, y llevará a una transformación cualitativa y
cuantitativa en el uso de los isótopos, no sólo en la
biología y la medicina, sino también en la agricultura y en la
gestión de toda la biosfera. Es bastante concebible que, por ejemplo, al
alterar y controlar la composición isotópica de la
nutrición vegetal, animal y humana de ciertas maneras, la humanidad pueda
obtener una variedad de efectos benéficos; y en un futuro no muy lejano
se producirán cantidades enormes de sustancias isotópicamente
enriquecidas con ese fin.
Tercero, la economía de isótopos empleará la
transmutación artificial a gran escala en la generación de varias
especies de átomos como materias primas para la producción
industrial. Para empezar, esto implica usar reactores de fisión nuclear,
junto con el reprocesamiento de todos los productos de la fisión,
más y más como generadores de átomos y como
máquinas de transmutación, que como simples fuentes de calor y
electricidad. Por su propia naturaleza, las reacciones de fisión de
núcleos pesados producen una amplia gama de isótopos más
ligeros, así como un flujo de neutrones que puede inducir transmutaciones
adicionales en el material circundante. Un siguiente paso será
añadir las potencialidades de la fusión nuclear, para crear una
“economía de fisión y fusión” combinadas,
imitando en ciertos aspectos la generación astrofísica de
elementos.
Los grandes flujos de neutrones que generan las reacciones de fusión
(de deuterio y tritio) permiten ritmos mucho más rápidos de
“cría” de combustible para reactores de fisión y de
transmutación en general. La producción de neutrones mediante la
fragmentación en aceleradores ofrece un tercer método para la
generación de átomos a gran escala, que quizás empiece con
instalaciones para la transmutación de “desechos” nucleares
de alto grado.
En el futuro previsible empezarán a surgir métodos más
sofisticados, basados en el control congruente de los procesos nucleares al
afinar con precisión la radiación electromagnética y otros
medios relacionados. El hombre desarrollará de manera progresiva la
capacidad de sintetizar cantidades macroscópicas de átomos y de
cualquier especie deseada, cada vez más a su voluntad, y de hacerlo a una
escala tal que complemente de modo sustancial, y que en algunos casos incluso
sobrepase, las cantidades y calidad de las materias primas disponibles de
“fuentes naturales”. Junto con la creación artificial de
elementos, la aplicación de plasmas de alta temperatura al procesamiento
de minerales, desechos y otros materiales —la llamada “antorcha de
fusión”— aumentará con amplitud la gama de los
recursos naturales económicamente explotables, y permitirá un
virtual reciclamiento del 100% de los materiales usados en la
economía.
Cuarto, la economía de isótopos es de suyo
“astrofísica” en su naturaleza y orientación cultural.
Su mantenimiento y desarrollo dependerá de amplias investigaciones
astrofísicas en curso que no pueden realizarse sólo desde la
Tierra y las regiones cercanas, sino que exigen una expansión de la
actividad humana en toda la región interna del sistema solar. Para
dominar los procesos subatómicos para la economía de
isótopos en la Tierra, tenemos que aprender cómo funcionan esos
procesos en las escalas galácticas del espacio–tiempo, y tenemos
que llegar a conocer, mucho mejor que lo que permiten las especulaciones
terrestres actuales, la prehistoria de nuestro propio sistema solar y del origen
de los elementos que ahí encontramos hoy. Estos requisitos se traducen en
la necesidad de erigir grandes redes de observatorios astronómicos
espaciales en las órbitas solares, capaces de llevar a cabo medidas
interferométricas y relativas de nuestro ambiente galáctico y
extragaláctico a una escala como la de la órbita de Marte;
además de un programa extraampliado de exploración del propio
sistema solar.
Todo esto no puede conseguirse sin establecer una infraestructura
logística y de producción a gran escala en el espacio, con acento
en la Luna y Marte, capaz de sostener una gran fuerza laboral
científico–técnica que viva y trabaje por largos
períodos lejos de la Tierra, de manera relativamente autosuficiente. En
cambio, es precisamente el “salto cuántico” en la
productividad general inherente a los avances tecnológicos de la
economía de isótopos, lo que hace factible el viaje rutinario por
todo el sistema solar interno y el establecimiento de colonias permanentes en
Marte. Los sistemas de propulsión de fusión, por ejemplo, pueden
acortar el tiempo de viaje entre la órbita cercana de la Tierra y Marte,
de muchos meses, como es necesario con los sistemas de propulsión
química actuales, a un par de semanas o menos.
El devenir de la economía de
isótopos
Para los lectores que desconocen los avances recientes en la
tecnología nuclear relacionada, nuestra caracterización de la
economía de isótopos podría parecer una posibilidad muy
lejana, que incluso raya en la “ciencia ficción”. En
realidad, la economía de isótopos ya está en un proceso
de devenir, y muchos de sus aspectos ya existen, de manera más o
menos desarrollada, en laboratorios e instalaciones de producción
avanzada alrededor del mundo.
La separación de isótopos. La tecnología de
separación de isótopos, cuyo progreso lo entorpecieron grandemente
los esfuerzos por monopolizar sus aplicaciones militares, ha experimentado
avances revolucionarios en los últimos 20 años. Los avances
iniciales en los métodos de láser y plasma (AVLIS, SILEX,
centrifuga de plasma, ciclotrón de resonancia iónica, etc.)
prometen enormes ventajas en comparación con los métodos
convencionales. Al mismo tiempo, estos últimos métodos (de
centrifugación, difusión, separación
electromagnética, difusión gaseosa y térmica) se han
refinado más, y su gama de aplicaciones industriales se ha extendido a un
número aun mayor de isótopos. Además, el fin de la Guerra
Fría liberó el uso civil de grandes capacidades de
separación de isótopos antes empleadas en los sectores militares
de EU y la antigua Unión Soviética. Esto a su vez ha ampliado
enormidades la gama de isótopos por lo general disponibles y reducido su
costo, estimulando la búsqueda de nuevas aplicaciones en todos los
campos.
La transformación cualitativa en el uso de los
isótopos. La demanda y producción de isótopos
está creciendo a un ritmo exponencial, en particular con el uso
médico de los radioisótopos a la cabeza. Al presente, sólo
en EU cada año se realizan más de 10 millones de
diagnósticos usando radioisótopos. Al mismo tiempo, está
teniendo lugar un salto cualitativo en la gama de aplicaciones de los
isótopos puros y enriquecidos en la economía, como lo ejemplifica
la muy ampliada función de los isótopos estables y el surgimiento
incipiente de un nuevo sector industrial que produce “materiales
isotópicamente diseñados” para la fabricación de
semiconductores y componentes mecánicos especializados, tales como
herramientas de corte en máquinas metalúrgicas. Pero éste
es sólo el comienzo de un vasto desarrollo, comparable en importancia
económica relativa al avance explosivo de cien años en la
industria química, desde mediados del siglo 19.
Los materiales con una afinación isotópica. En este
proceso, la función preeminente de la radiactividad en la
mayoría de los usos actuales de los isótopos la van complementando
de manera gradual otras características relacionadas con la “afinación” exquisitamente fina” de las
interacciones nucleares y con las propiedades colectivas de los materiales
diseñados a partir de combinaciones de isótopos escogidas de modo
específico. La diferenciación entre isótopos de uno y el
mismo elemento se vuelve así cada vez más importante en las
aplicaciones que no tienen nada que ver directamente con la radiactividad o
siquiera, en apariencia, con las llamadas “propiedades nucleares”
del isótopo. Cuando se les incorpora a retículas de cristales u
otras estructuras moleculares, los núcleos de los diferentes
isótopos, al tener masas distintas, oscilan a frecuencias
diferentes.
Por estas razones, entre otras, los materiales que se elaboran usando un
solo isótopo cuidadosamente separado de un elemento dado, tienen una
“afinación” interna diferente y más coherente que la
de los elaborados con una mezcla de isótopos; muestran un comportamiento
muy diferente. Al presente, por ejemplo, laboratorios de todo el mundo
investigan la posibilidad de superar las limitaciones actuales a las densidades
de poder y, por tanto, al poder de la computación, de los chips
semiconductores, con el uso de un isótopo puro de silicio. Se ha
descubierto que las estructuras “isotópicamente puras” de
silicio, así como de carbono y de varios otros elementos, poseen una
conductividad térmica muy superior a la correspondiente de los materiales
“naturales”. Una conductividad térmica más alta
acelera el ritmo potencial de disipación de calor en los chips
semiconductores, lo que les permite funcionar con un poder superior sin
sobrecalentarse. Se ha demostrado que los diamantes “isotópicamente
puros” presentan un efecto parecido, lo que abre la posibilidad de
aumentar la productividad de varias funciones mecánicas. Se ha
establecido que los diamantes hechos de carbono–13 puro son
significativamente más duros que los compuestos por la mezcla de
isótopos que se da en la naturaleza.
|
Ver ampliación
La tecnología del láser de separación isotópica
mediante vaporización atómica AVLIS se desarrolló en los
1970, y se construyó una planta piloto en el Laboratorio Nacional
Lawrence Livermore, donde se demostró con éxito el enriquecimiento
de uranio y otros usos isotópicos potenciales en los 1990. Pero el AVLIS
fue cancelado, en un ejemplo pasmoso del “valor del accionista”. La
ley de Política Energética de EU de 1992
“privatizó” el enriquecimiento de uranio, al transferir la
tecnología a la empresa privada USEC, la cual en 1999 decidió
cancelar el proyecto AVLIS porque la inversión en el mismo era demasiado
riesgosa para los accionistas. La planta piloto se desmanteló.
Láser del proyecto AVLIS. (Foto: Laboratorio Nacional Lawrence
Livermore). |
Las interacciones hiperfinas y los efectos de los isótopos
magnéticos. Empero, estas aplicaciones emplean el efecto de las
diferencias de masa entre los isótopos, aunque aún no toman
en cuenta lo que en realidad es una característica de
diferenciación mucho más esencial, sus propiedades
magnéticas, las cuales son decisivas en el fenómeno de la resonancia magnética nuclear. Como señalaré en la
siguiente sección, en los últimos años se ha abierto un
nuevo campo de la química y la biología, en conexión con la
demostración experimental de que las llamadas “interacciones
hiperfinas”, que involucran al núcleo, desempeñan una
función fundamental en todas las células vivas. Los efectos
magnéticos nucleares que dependen de los isótopos también
cobrarán cada vez mayor importancia en determinar el comportamiento de
las materias primas inertes creadas por el hombre, entre ellas de manera
más probable nuevas clases de “superconductores a temperatura
ambiente”.
Los reactores de fisión como fábricas de
átomos. Entre tanto, la importancia económica de los
isótopos que generan los aceleradores y los reactores de fisión
nuclear, de muchas maneras ¡excede ya la de la electricidad que
generan esos mismos reactores! En el futuro previsible los reactores de
fisión, en vez de ser más que nada vistos como fuentes de
electricidad, al generar isótopos como un subproducto, funcionarán
más y más como fábricas de átomos que generan
electricidad como subproducto. Las reacciones de fisión tienen la
peculiaridad de que, a partir de un solo isótopo pesado (U–235,
Pu–239 o Th–232), generan una amplia gama de isótopos
diferentes que abarca casi todos los elementos de la tabla periódica. Hoy
ya es posible, al “afinar” el espectro de los neutrones y la
composición del combustible en un reactor, influenciar a un grado
significativo la distribución de los productos de la
fisión.
Los desechos nucleares como un “mineral” valioso para la
extracción de metales preciosos. Hoy, además de grandes
cantidades de radioisótopos útiles y combustibles de fisión
reciclables, los reactores de fisión nuclear generan ya grandes
cantidades de metales preciosos con una importancia industrial, tales como el
paladio, el rodio y el rutenio. La extracción de estos metales a partir
de los llamados “desechos nucleares” para su uso económico
como catalizadores, en aleaciones especiales y en materiales resistentes a la
corrosión, ya ha comprobado ser factible. La cantidad de estos metales
que cada año se sintetizan como productos de reacción en los
reactores nucleares ahora en funcionamiento en el mundo, si se extrajera del
combustible consumido durante el reprocesamiento, equivaldría ya a un
porcentaje significativo del volumen total anual que se extrae de la tierra con
la minería. Teniendo en cuenta que las concentraciones relativas de
muchos metales raros que contiene el combustible que consumen los reactores de
cría son decenas de miles, a millones de veces superiores a su contenido
promedio en la corteza terrestre, investigadores japoneses declararon hace poco
que estos combustibles consumidos son de los “minerales” más
valiosos que se conocen hoy.
El reprocesamiento total. La explotación cabal del potencial
de la fisión como un generador de átomos comenzará con el
“cierre” del ciclo del combustible nuclear, mediante el
reprocesamiento químico total del combustible consumido, la
separación de isótopos útiles, el reciclamiento de
materiales fisibles y la transmutación de especies indeseables mediante
el bombardeo con neutrones generados en un acelerador o en reactores
especialmente diseñados para la “combustión de desechos
nucleares”. Todo esto lo han resuelto en detalle laboratorios nucleares de
todo el mundo, y la base tecnológica esencial ya existe.
La transmutación a gran escala mediante aceleradores de
partículas. La tecnología de los aceleradores de
partículas de alta corriente ha avanzado al grado que la
transmutación de cantidades macroscópicas de isótopos
mediante la irradiación con neutrones de una fuente animada por un
acelerador es ya una posibilidad tecnológica. Muchos laboratorios
alrededor del mundo trabajan actualmente en diseños de sistemas de
transmutación por aceleradores (STA), como un medio para bregar con el
problema de los isótopos radiactivos de larga vida del “desperdicio
nuclear”. Un solo STA con un poder de rayo de 20 megavatios (MW)
podría transmutar los isótopos de larga vida de 10 plantas
nucleares normales en isótopos estables de corta vida, generando al mismo
tiempo 800 MW de fuerza térmica. Una tecnología similar
podría usarse en otras aplicaciones de transmutación, así
como para impulsar reactores nucleares “subcríticos” de
varias clases.
|
Ver ampliación
El Reactor Termonuclear Experimental Internacional (ITER) está ahora
en construcción en Cadarache, Francia. Éste será el
siguiente paso en la creación de construir el prototipo de una
estación que generará 500 MW de energía de
fusión. |
El advenimiento de la fusión nuclear. El siguiente paso hacia
una economía de isótopos a escala total será combinar el
potencial de la fusión —que en muchos aspectos complementa el de la
fisión— con los procesos de fisión y la transmutación
en aceleradores, y al mismo tiempo entrar a una fase de nuevos métodos de
transmutación controlada, que ahora están en una fase experimental
(ver a continuación). En los últimos diez años la
tecnología de fusión nuclear ha progresado a paso firme en
múltiples frentes. En 1997 el reactor experimental de fusión JET
(Toro Europeo Conjunto), en Culham, Inglaterra, generó más de 16
MW de fuerza mediante reacciones de fusión de varios segundos de
duración, a temperaturas de 100 millones de grados centígrados. El
Reactor Termonuclear Experimental Internacional (ITER) que ahora se construye en
Cadarache, Francia, generará 400 MW de energía de fusión,
en pulsos de más de 6 minutos, y el próximo paso es construir el
prototipo de una estación de fuerza. Junto con el diseño
común del tokamak, ha habido un progreso general importante en los
experimentos de fusión, entre ellos el de revestimiento rápido, el
de foco de plasma, el de “confinamiento inercial” con
láseres, el de rayos de iones y otros.
El enfoque de “la fuerza bruta” en la fusión no es el
mejor, pero se acerca al éxito. Contrario a los mitos que por lo
común se repiten, la posibilidad de generar grandes cantidades de fuerza
mediante reacciones de fusión se ha demostrado desde hace mucho tiempo; a
saber, con la explosión de la primera bomba de hidrógeno, hace
más de medio siglo. Sin embargo, la bomba de hidrógeno necesita un
detonador de fisión de reacción en cadena más
pequeño (una pequeña bomba atómica) para elevar una mezcla
de isótopos de hidrógeno a las altas densidades y temperaturas
necesarias para que ocurran reacciones de fusión en masa. La dificultad
esencial de aprovechar la fusión como una fuente de energía para
propósitos civiles radica en el reto de generar una gran cantidad de
reacciones de fusión de manera eficiente y controlada, sin usar una bomba
atómica como detonador. En los últimos 30 años el progreso
en la fusión nuclear controlada lo ha retrasado mucho la falta de
voluntad política, de una orientación hacia un enfoque de mera
ingeniería o de “ciencia aplicada”, más que la
realización de descubrimientos fundamentales; la restricción en la
consecución de hipótesis experimentales a unas cuantas direcciones
seleccionadas; la atmósfera agobiante de la “gran ciencia”,
la cual se administra de manera burocrática; etc. No obstante, la
acumulación de la perseverante “fuerza bruta” de la
física y la ingeniería aplicadas ha puesto al alcance
tecnológico un reactor de fusión de primera
generación.
Al presente se trabaja en la construcción de un reactor experimental
de fusión enorme de prueba, el ITER. El núcleo del ITER es una
cámara toroidal que al comienzo se llena con un gas muy ligero, mismo que
se transforma en el plasma inicial con una descarga eléctrica inducida
por las bobinas de grandes transformadores que rodean la cámara. El
plasma luego se calienta con microondas y rayos de partículas neutrales a
una temperatura que equivale a más de 100 millones de grados
centígrados, y se le inyecta una mezcla adicional de combustible de
deuterio y tritio. El reactor emplea una combinación de corrientes que se
generan dentro del plasma y los campos magnéticos impuestos desde afuera,
lo que crea una suerte de “botella magnética” que contiene al
plasma suspendido en la región central de la cámara, y lo aisla de
sus paredes con un alto vacío. Cuando entre en funcionamiento, se espera
que genere una potencia bruta de 500 MW a partir de reacciones de fusión
entre los núcleos de los isótopos de hidrógeno, deuterio y
tritio, a temperaturas de más de 100 millones de grados
centígrados, por períodos de aproximadamente seis minutos y medio
a la vez (el aparato producirá un pulso más o menos cada 30
minutos). Debido a este modo de operación por pulsos y al alto consumo de
energía de sus sistemas de calentamiento magnético y de plasma, al
ITER no puede considerársele como un prototipo cabal de una futura planta
de fusión; sin embargo, se espera que finalmente se establezca la
factibilidad práctica de una planta energética semejante, al
tiempo que se lleve a un gran número de tecnologías, necesarias
para un futuro reactor, a un alto grado de perfección relativa.
El híbrido de fusión y fisión. La
distribución de las especies atómicas que se encuentran hoy en el
sistema solar, muestra sólidas pruebas al efecto de que los
isótopos que encontramos a nuestro alrededor los generó una
combinación de procesos de fisión y fusión. De modo que
también la propia economía de isótopos venidera se
fundará en una sinergia de estos procesos nucleares complementarios. Las
primeras encarnaciones de corto plazo de este principio se conocen como los
reactores híbridos de fusión, o de fusión y
fisión.
La tecnología híbrida aprovecha el hecho de que “las
reacciones de fisión son pobres en neutrones, pero ricas en
energía, en tanto que las de fusión son ricas en neutrones, pero
pobres energéticamente”. Aunque cada reacción de
fisión del uranio libera cerca de tres neutrones en promedio, en los
reactores de fisión la mayor parte de esos neutrones se consume de nuevo
inmediatamente, en parte para mantener el proceso de reacción en cadena
de la fisión, y en parte por la absorción en la mezcla compleja de
isótopos presente en el núcleo de un reactor de fisión,
más lo que se libera al exterior. Por este motivo, los reactores de
fisión nuclear funcionan con un equilibrio de neutrones relativamente
estricto. Sin embargo, en un reactor de fisión los neutrones que produce
la fusión del deuterio y el tritio no se necesitan para mantener el
proceso, y el plasma de fusión tampoco contiene una gran cantidad de
sustancias que absorban los neutrones; de ahí que estos neutrones
estén disponibles para su uso útil en otro lugar. Por otra parte,
la fusión de deuterio y tritio libera diez veces menos energía por
reacción que la fisión de un núcleo de
U–235.
Por consiguiente, el principio de los “híbridos”
consiste en usar las reacciones de fusión para producir neutrones, y
las de fisión para generar energía. La sinergia funciona como
sigue: usamos el flujo de neutrones que genera un plasma de fusión 1)
para criar combustible nuclear para los reactores de fisión a partir del
U–238 o el torio; 2) para transmutar productos radiactivos de los
reactores de fisión; o 3) para hacer que un reactor de fisión
funcione de un modo subcrítico. Estas aplicaciones no necesitan que el
reactor de fusión produzca un exceso de fuerza. El beneficio
energético general viene del lado de la fisión en la
ecuación, por así decirlo; de la “combustión”
del combustible de fisión que produce el híbrido en reactores de
fisión separados, en las reacciones de fisión que ocurren en una
capa “subcrítica” anexa o, en el caso de la
transmutación de desechos, de la liberación de la energía
almacenada en los productos de la fisión radiactiva.
Abandonar el requisito del “equilibrio energético”
reduce mucho lo que se demanda del reactor de fusión, poniéndolo
al alcance de la clase de diseño y parámetros que ya quedaron
demostrados con el reactor europeo JET en Culham, y que mejorarán
muchísimo con el reactor ITER que se construye en Francia. Estos
reactores, aunque aún funcionan muy por debajo del nivel de equilibrio
para la generación de fuerza, ya han alcanzado parámetros que
bastan, en principio, para construir sistemas híbridos para la
producción (cría) de combustibles de fisión nuclear, la
transmutación de desperdicios nucleares a gran escala y la
generación de energía con el uso de neutrones generados en
reacciones de fusión, que alimenten un reactor de fisión nuclear
“subcrítico”.
La antorcha de fusión y la separación de plasma a gran
escala. El nivel de dominio tecnológico de los plasmas densos en
energía que se logró en el transcurso de desarrollar el reactor de
fusión hasta ahora, también posibilita, en principio, realizar las
“primeras aproximaciones” al concepto de la llamada antorcha de
fusión (o antorcha de plasma de alta temperatura) que inventaron los
científicos estadounidenses Bernard Eastlund y William Gough. Al emplear
plasmas magnéticamente confinados, las antorchas de fusión, ya sea
solas o en combinación con la llamada centrifuga de plasma, podremos en
última instancia procesar y separar cualquier material —minerales
pobres, desechos, agua de mar o cualquier otra cosa— en las especies
atómicas que lo componen, obteniendo isótopos puros a partir de
materias básicas arbitrarias. Al límite, esta tecnología
permitirá un reciclamiento casi 100% eficaz de los materiales y
ampliará la gama explotable de recursos naturales en muchos
órdenes de magnitud.
Gracias a que los plasmas pueden tener densidades energéticas casi
ilimitadas, y al mismo tiempo manipularse con facilidad mediante corrientes
aplicadas, campos magnéticos y microondas, los plasmas se han convertido
en un medio de trabajo cada vez más importante en el procesamiento de
materiales. Entre las aplicaciones industriales de los plasmas está la
producción de acero, la química de plasmas, el tratamiento de
superficies, la sedimentación de iones y muchas otras. Pero en el futuro,
el uso a gran escala más importante de los plasmas densos en
energía, aparte de la generación de energía de
fusión, casi de seguro será la “antorcha de
fusión”.
Sus inventores originales, Eastlund y Gough, se dieron cuenta de que los
plasmas de fusión, con sus altas temperaturas y densidades de fuerza,
constituyen una suerte de “solvente universal”: cualquier material
conocido, al inyectarse en semejante plasma, instantáneamente se disocia
en los electrones y iones de los átomos que lo componen. Una vez que
ocurre la disociación, las diferentes especies de iones que componen el
plasma mixto que resulta pueden separarse con diversos métodos, ya sea en
la región original o depositando el plasma mixto en una cámara de
separación.
El método más conocido es el de la acción
centrífuga, como lo ejemplifican las clásicas centrífugas
de gas que se usan hoy para el enriquecimiento de isótopos de uranio
basándose en la ligera diferencia de su masa. En principio los plasmas
pueden alcanzar velocidades de rotación órdenes de magnitud
superiores a las de aparatos mecánicos. Las centrífugas de plasma
experimentales para la separación de isótopos ya se encuentran hoy
en funcionamiento. En la práctica, los futuros aparatos de
separación de plasma a gran escala emplearán combinaciones de
campos eléctricos, magnéticos y electromagnéticos,
así como ondas inducidas y el movimiento rotacional de alta velocidad en
el plasma mismo, para lograr los resultados deseados. También se
usará una variedad de mecanismos en cascada, como ya se hace
ahora.
|
La estabilidad de muchos núcleos puede cambiar dependiendo de su
ambiente electrónico. Se ha logrado un descenso en la vida radiactiva
media al alojar átomos de berilio–7 en complejos de átomos
llamados fullerenos. |
Lo más probable es que en la práctica a gran escala, las
operaciones de disociación y separación de elementos y de
separación de isótopos no se lleven a cabo directamente en un
plasma de reacción de fusión, sino en uno derivado de un reactor
de fusión hacia cámaras auxiliares, o en uno recién creado
alimentado por una fuente externa.
En la actualidad en EU se estudian las primeras aplicaciones del principio
de la “antorcha de fusión” como un posible método para
bregar con la gran acumulación de materiales radiactivos, resultado de 50
años de producción de armas nucleares, en Hanford y otros lugares.
Las primeras antorchas de plasma serán alimentadas desde
afuera.
La transmutación nuclear controlada mediante láseres. Los avances de los últimos cinco años en la construcción de
poderosos láseres de pulso ultracorto (láseres femtosegundo) y
láseres que funcionan en el espectro de los rayos X, hacen ahora posible
activar procesos de transmutación nuclear directamente con
láseres. Los llamados “láseres femtosegundo de mesa”,
aparatos compactos que ahora están disponibles a nivel comercial y que
están convirtiéndose en un equipo común en los principales
departamentos de física y laboratorios, emplean métodos novedosos
de “compresión de pulso” y amplificación para producir
pulsos de luz sumamente cortos, del orden de los 10−13 a
10−15 segundos. Algunos de estos láseres pueden alcanzar
ahora densidades de fuerza de hasta 1019 vatios por centímetro
cuadrado, lo suficiente como para activar reacciones nucleares de rutina
mediante la acción de rayos gama que se generan en un material irradiado
por el láser. Los campos electromagnéticos que generan estos
láseres también pueden usarse para acelerar partículas
cargadas a energías suficientes como para desencadenar reacciones
nucleares. Así, en la actualidad laboratorios pequeños pueden
llevar a cabo trabajo experimental que en el pasado requería ciclotrones
gigantescos y otras máquinas aceleradoras de partículas.
Los “láseres de mesa” reproducen, con medios mucho
más simples, resultados que antes se obtenían con láseres
gigantes tales como el VULCAN del Laboratorio Rutherford Appleton en Inglaterra,
y el Petavatio del Laboratorio Lawrence Livermore en California. En 1999, por
ejemplo, Livermore indujo la fisión de núcleos de U–238
mediante pulsos láser. Pronto un laboratorio en la Universidad Friedrich
Schiller de Jena hizo lo mismo con un láser de mesa. Otros experimentos
en el VULCAN demostraron el uso de pulsos láser para la
transmutación de isótopos radiactivos de larga vida, tales como el
yodo–129 (con una vida media de 15 millones de años), en
isótopos de corta vida (en este caso, I–128, con una vida media de
sólo 25 minutos). Tales métodos, una vez perfeccionados,
proporcionarán un medio eficaz para “desactivar” los desechos
radiactivos que se producen en plantas de fisión nuclear,
transformándolos en elementos estables no radiactivos.
Laboratorios de todo el mundo compiten hoy por crear fuentes láser
con longitudes de onda aun más cortas, avanzando más allá
en dirección de los rayos X “más fuertes”. Cada
disminución en la longitud de onda amplía la gama y eficacia de
los procesos nucleares que pueden generarse de manera directa (con reacciones
fotonucleares). Los láseres de rayos gama, que aún no están
al alcance inmediato, revolucionarían los métodos experimentales
de la física nuclear.
El cambio en las “constantes” de la radiactividad. Prejuicios e ideas equívocas que se introdujeron desde muy temprano en
este campo dificultan la enseñanza y la práctica de la
física nuclear. Una de las más incapacitantes es la idea
preconcebida de que los procesos “dentro” del núcleo
atómico constituyen un mundo separado de manera categórica, al que
gobiernan entidades misteriosas llamadas “fuerzas fuertes”, y
básicamente no interactúan con su entorno excepto a través
de actos violentos de “alta energía”, que se considera son de
un carácter en esencia estadístico. El término
“destructor de átomos” que en un principio se usaba en EU
para denotar aceleradores de partículas de alta energía, refleja
la persistencia de un concepto simplista tipo Rambo, a pesar de las
montañas de pruebas de la afinación exquisitamente
“fina” de los procesos nucleares. El prejuicio continúa hoy,
aun entre los profesionales, de que procesos tales como la desintegración
radiactiva de núcleos prácticamente están más
allá del control humano, excepto cuando se somete a los núcleos a
fuerzas gigantescas o se les bombardea con partículas de aceleradores de
alta energía o reactores nucleares. El ritmo de desintegración
radiactiva de un núcleo aún se considera, de manera
errónea, como una suerte de constante natural, más que como una
función de la geometría física en la que dicho
núcleo está inserto.
Esta actitud dogmática entre los profesionales lleva al absurdo
concepto equivocado, adoptado como un “hecho” de la política
pública por décadas, de que la única forma de tratar los
isótopos de larga vida que contienen los “desechos nucleares”
¡es almacenándolos bajo tierra por decenas o cientos de miles de
años! Esta noción aún impera en los debates públicos
en la actualidad, aunque el mundo profesional hace mucho que reconoció la
alternativa de la transmutación a gran escala por medio de aceleradores
de partículas o aparatos de fusión, como se mencionó antes.
Esto funcionará, pero representa un método primitivo de
“fuerza bruta” a remplazar con enfoques mucho más
inteligentes, tan pronto como estén disponibles.
Entre tanto, se ha acumulado un mar de pruebas experimentales de la
existencia de procesos nucleares de “baja energía”
delicadamente afinados, muy distintas de aquéllas sobre las cuales se ha
fundado la tecnología nuclear hasta ahora, y cuyo dominio futuro define
una vía revolucionaria para desarrollar la economía de
isótopos.
Ahora está bien establecido, por ejemplo, que la estabilidad o el
tiempo de vida de muchos núcleos puede cambiar por muchos órdenes
de magnitud, dependiendo de su ambiente electrónico. Así, por
ejemplo, el isótopo disprosio–163 es estable en su forma
atómica normal, pero al ionizarse (despojándosele de sus
electrones), su núcleo se vuelve inestable. El isótopo de renio,
Re–187, tiene una vida media de más de 40 mil millones de
años en su forma atómica, pero al ionizarse, se reduce más
de mil millones de veces, a menos de 33 años. La ionización
completa de un átomo libre es un proceso con un uso muy intenso de
energía. Se han logrado disminuciones en la vida radiactiva media
más pequeñas, pero aún fáciles de medir, por
métodos mucho más “sutiles”: al alojar átomos
de berilio–7 en fullerenos (complejos de átomos en nanotubos de
carbono), y sólo hasta hace poco, al alojar sodio–22 en metal de
paladio, que luego se enfría a una temperatura de 12°K. Los efectos
de estos experimentos sólo fueron del orden del 1%, pero 1) refutan el
dogma de que los procesos nucleares son “ajenos” a su ambiente,
excepto en condiciones de “alta energía”; y 2) en general son
congruentes con los resultados de muchos experimentos de “fusión en
frío”, que son más difíciles de interpretar, pero
presentan una multitud de efectos de transmutación —a veces algunos
muy espectaculares— que, como puede demostrarse, no se derivan de la clase
acostumbrada de reacciones nucleares de “alta
energía”.
La función de los isótopos en los
procesos vivos
El aspecto de veras revolucionario de la economía de isótopos
yace en las regiones de intersección de los tres grandes dominios
experimentales de nuestro universo: el de los procesos manifiestamente inertes,
el de los procesos vivos y el de los que dependen de la razón humana
creativa. Las pruebas inequívocas de la distinción absoluta entre
los principios que gobiernan estos tres dominios las aportaron Vladimir
Vernadsky, para el primer y segundo dominios, y Lyndon LaRouche, para el segundo
y tercero. Los tres dominios son de un carácter
antientrópico.
El rasgo más paradójico y fecundo de esta división
estricta nace de la circunstancia de que los principios que subyacen en los tres
dominios mencionados, en la medida que son de veras universales, ¡siempre están implícitamente presentes y se
coextienden al universo entero! En otras palabras, no tenemos tres universos
separados, uno para cada dominio, sino un solo universo multiconexo, en
el cual cada cosa que existe (cada singularidad) participa de manera
simultánea, pero de formas diferentes, en cada uno de los tres principios
distintos (o conjuntos de principios) de acción. El significado queda
claro cuando examinamos el caso especial de los isótopos y las reacciones
nucleares.
La existencia de una conexión íntima entre las reacciones
nucleares, los isótopos y los procesos vivos está profundamente
arraigada en la prehistoria de nuestro planeta. Hasta donde sabemos, el gran
grueso de las especies atómicas, de las cuales se componen los tejidos de
los organismos vivos de este planeta, se generó durante las primeras
fases de la evolución de nuestro sistema solar, antes de la
formación de la Tierra, y en ese sentido constituye un
“fósil” de esa evolución previa. También, hasta
donde sabemos —si bien hay algunas opiniones divergentes al
respecto—, el sistema solar se originó en una sola entidad
protoestelar que era nuestro Sol en una etapa previa de su desarrollo.
Un origen unitario del sistema solar
Antes de pasar a los procesos vivos per se, veamos las más
congruentes de las hipótesis disponibles sobre cómo debió
ser la evolución previa del sistema solar.
|
Desde hace un siglo, el biogeoquímico ruso–ucraniano Vladimir
I. Vernadsky reconoció que el descubrimiento de nuevos principios
dinámicos que trascienden la química del sistema periódico
y que están muy ligados al origen de nuestro sistema solar,
desencadenarían un revolución en todos los aspectos de la
relación del hombre con la naturaleza. |
Según la hipótesis de la “fusión
polarizada” que plantea LaRouche, la serie de las especies atómicas
que se encuentran en el sistema solar hoy se generó, en esencial, in
situ, como parte del mismo proceso unitario que llevó a la
formación del sistema planetario: el protosol era un objeto que giraba a
gran velocidad, del que se “desprendió” un disco de plasma al
que luego pasó a “procesar”, mediante una combinación
de radiación intensa y poderosas inducciones magnetohidrodinámicas
impulsadas por la rápida rotación y el intenso campo
magnético del protosol. Esta acción del Sol creó las
condiciones para que ocurriera la “fusión polarizada” en el
disco; un proceso de fusión en el que, se propone, una
polarización magnética muy fuerte de los núcleos, y
quizás otros efectos “catalizadores” de la geometría
electromagnética establecida en el disco, causaron que el proceso de
fusión fuera órdenes de magnitud más eficaz que la
fusión “térmica” ordinaria.
Así, el protosol pudo generar toda la gama de elementos e
isótopos que hoy encontramos en la Tierra y otras partes del sistema
solar (esto incluiría las especies atómicas más pesadas que
el hierro en el sistema periódico, que no pudieron haberse generado en
las cantidades observadas por la suerte de reacciones de fusión que se
pensaba ocurrían en nuestro sol actual. El disco de plasma de estructura
magnetohidrodinámica, con su provisión de elementos recién
generados, se convirtió luego en una serie de anillos con un orden
armónico, que corresponde a la ubicación de las órbitas
planetarias como las vemos hoy. Por último, los planetas mismos se
condensaron fuera de los anillos.
Por desgracia, la mayoría de los astrofísicos rechazan hoy la
noción de un origen unitario del sistema solar, sus elementos y el
ordenamiento armónico de sus planetas. En cambio, creen que los elementos
más pesados que se encuentran ahora en el sistema solar datan de antes
del nacimiento de nuestro Sol actual, y que fueron generados por reacciones
nucleares durante una o más explosiones gigantescas de estrellas: las
“supernovas”. Qué estrella o estrellas fueron éstas,
nadie puede decirlo, porque no se han observado rastros astronómicos de
tales procesos explosivos en las cercanías de nuestro sistema solar. Pero
hay otra posibilidad, a saber, que las supernovas que los astrónomos de
hecho observan de vez en cuando en nuestra galaxia, y que los
astrofísicos interpretan como explosiones como de bomba, son en realidad
procesos del tipo que LaRouche ha propuesto; y que la supernova generadora de
elementos pesados que los astrofísicos dan por sentada, ¡en realidad
sólo es una exuberante fase previa en la vida de nuestro propio
protosol!
Como sea que se resuelvan estas cuestiones en el futuro, sus implicaciones
son las siguientes:
Primero, desde la perspectiva de la prehistoria de nuestro sistema
solar, la existencia de la vida en nuestra Tierra está inseparablemente
ligada a la de las reacciones nucleares que produjeron las especies
atómicas que integran el tejido vivo. En ese sentido, las condiciones
materiales para que tuviéramos nuestra biosfera y su evolución
orgánica las creó una fase previa de evolución
inorgánica, pero antientrópica, del sistema solar: la
“nucleosfera”.
Segundo, la vida en la tierra sigue animándola la fuerza
nuclear: nuestra biosfera entera vive del Sol, cuyo poder de
radiación lo generan reacciones de fusión. Pero la biosfera no
sólo está unida a nuestra estrella en términos del flujo
bruto de energía de radiación, sino también a través
de interacciones magnéticas más sutiles, que causan lo que el
investigador ruso A.L. Chizevsky llamó “el eco de la biosfera de la
actividad solar”, el cual se refleja en el comportamiento de los
microorganismos y otros procesos vivos, así como en el clima.
Luego de establecer así, sin lugar a duda, la relación astrofísica entre los procesos nucleares y la vida en la Tierra,
busquemos ahora la relación en el nivel microfísico.
Tras el descubrimiento de los isótopos, se ha realizado mucho
trabajo experimental en el afán de encontrar una función especial
de isótopos particulares en los procesos vivos. Los primeros trabajos
indicaban que los procesos vivos enriquecían en cierta medida a los
isótopos; por ejemplo, la proporción entre las concentraciones de
isótopos de un elemento dado en el tejido vivo difieren de las que se
encuentran en el ambiente a su alrededor de un modo
característico. Aunque en la actualidad éste es un hecho bien
establecido, que se ha explotado con amplitud en investigaciones
geológicas, geoquímicas, ecológicas, botánicas,
paleontológicas, etc., los cambios en la proporción de los
isótopos involucrados casi siempre son al nivel de un número de
partes por cada mil. Esto es comparable en magnitud con los cambios en los
isótopos que causan los procesos inertes, y órdenes de magnitud
inferior al efecto de la concentración de los elementos químicos
mismos, al cual le debemos el origen biológico de la concentración
de muchos yacimientos minerales. También se han dado algunos indicios de
que los microorganismos pueden llevar a cabo ciertas transmutaciones; sin
embargo, las pruebas siguen siendo ambiguas, y no se ha propuesto ninguna
hipótesis muy buena de qué función fundamental
podrían desempeñar tales transmutaciones, en la medida en que
ocurren, en la organización de los procesos vivos.
Dejando de lado los isótopos muy radiactivos, cuyos efectos
isotópicos específicos en los organismos vivos parecen del todo
explicables en razón de la radiación misma, los organismos vivos
parecen más bien insensibles aun a cambios grandes en las concentraciones
de isótopos en el ambiente y en la materia que ingieren. En efecto, en
esta aparente indiferencia se funda la técnica del rastreo
isotópico de vías metabólicas y muchos métodos de
diagnóstico médico. La excepción clara, pero no
sorprendente, es el deuterio, dos veces más pesado que el
hidrógeno común, cuyas propiedades químicas ordinarias son
ya perceptiblemente diferentes a las del hidrógeno. La ingestión
de agua pesada (D2O) en grandes cantidades lleva a trastornos
metabólicos mortales en los animales; no obstante, pueden cultivarse
bacterias en agua pesada, al grado que casi todo el hidrógeno que
contienen es remplazado por deuterio, sin que parezcan sufrir
daño.
La función del magnetismo nuclear
¿Significa esto que los isótopos no tienen una función
directa como tal en la organización de los procesos vivos? ¡Al
contrario! Pero el mejor indicio que tenemos hasta ahora proviene de una
dirección muy diferente que un mero efecto estadístico de las
concentraciones de isótopos. La clave está en las
características magnéticas de los núcleos
atómicos, las cuales difieren de manera radical entre los distintos
isótopos de un mismo elemento. Estas características se aprovechan
de manera rutinaria en la espectroscopía de resonancia nuclear
magnética (RNM) que se usa en los hospitales modernos, pero apenas
empieza a captarse su importancia cabal.
|
Las características magnéticas de los núcleos
atómicos tienen una función decisiva en los procesos vivos, mismas
que la espectroscopía de resonancia nuclear magnética (RNM)
aprovecha de manera rutinaria. Espectrómetro del Laboratorio de Ciencias
Ambientales William R. Wiley en el estado de Washington. |
Las señales que se emplean en la RNM, por ejemplo, las emiten
núcleos atómicos que interactúan con la combinación
de un campo magnético producido por las bobinas que rodean al paciente o
espécimen y un pulso de microondas que se usa para “excitar”
las oscilaciones nucleares. Aquí, las diferencias entre los
isótopos son decisivas. Para los núcleos de isótopos cuyos
números atómico y de masa son pares, los momentos
magnéticos que determinan la fuerza de la interacción con los
campos magnéticos son indistinguibles de cero. Estos núcleos no
contribuyen nada a la señal. Por otra parte, los núcleos con un
número atómico o de masa impar tienen momentos magnéticos
perceptibles, cuyos valores de algún modo dependen de la
configuración interna de los núcleos. Emiten señales
distintas que permiten “afinar” las máquinas de RNM para
identificar isótopos específicos en el tejido vivo. Esas
señales no sólo manifiestan la presencia de los isótopos
correspondientes, sino también ciertas características de la
geometría física a su alrededor, mediadas por interacciones
magnéticas entre los diferentes núcleos y las estructuras de
electrones en las que se alojan. La interacción entre los núcleos
y las estructuras electrónicas que los rodean —conocida como
“interacción hiperfina”— también se refleja en
cambios muy ligeros, pero definidos con mucha precisión, en el espectro
óptico de los átomos y las moléculas, y en otras clases de
espectros. La estructura hiperfina tiene una relación muy estrecha con la
constante cuántica física llamada “espín”, que
se cree subyace en las propiedades magnéticas de los núcleos y
otras partículas, y que está íntimamente entrelazada con la
llamada estructura fina constante y otras constantes básicas de la
física. Por desgracia, de todos los temas de la física
cuántica, el fenómeno del “espín” es el que
sufrió una mayor mistificación relativa a manos de Wolfang Pauli y
otros.
Ahora bien, es difícil imaginar que un proceso tan bien organizado y
delicadamente afinado careciera de importancia funcional en los procesos
vivos. De hecho, la sensibilidad extraordinaria de los procesos vivos a los
campos magnéticos constantes y variables es bien conocida, y conforma
todo un campo de investigación llamado
“magnetobiología” o “biomagnetismo”. La biosfera
todo el tiempo está sujeta al campo magnético de la Tierra, el
cual a su vez está conectado al del Sol y a la actividad solar.
Pero, a pesar de muchos intentos, la importancia biológica
fundamental de esta sensibilidad y de la naturaleza de las interacciones
involucradas no se ha clarificado. Parte de la razón es la magnitud al
parecer “infinitesimal” del “componente nuclear” de los campos magnéticos en la materia viva e inerte. Las interacciones
magnéticas entre moléculas, que se han estudiado de manera
exhaustiva y se sabe que tienen una función decisiva en la
bioquímica y la biofísica de los procesos vivos —en especial
en lo que concierne a la función de los llamados radicales libres—,
se deriva casi por completo de sus estructuras electrónicas, las
cuales —al menos así se presumía— son relativamente
independientes del magnetismo nuclear relacionado con el isótopo. Los
momentos magnéticos de los núcleos son mil o más veces
más débiles que los asociados con los electrones y sus
configuraciones orbitales. Para obtener una señal suficiente de los
núcleos, las máquinas de RNM emplean campos magnéticos que
por lo general son entre veinte y treinta mil veces más fuertes que el
campo magnético natural de la Tierra.
La fuerza de los efectos débiles
Pero, como ha demostrado la ciencia una y otra vez a lo largo de los
siglos, suelen ser los efectos más débiles los que tienden a
ignorarse, los que controlan en realidad a los más grandes. En los
últimos años, en particular gracias a la obra de químicos
físicos en Rusia, han salido a relucir pruebas decisivas de que las
interacciones “hiperfinas” específicas de los isótopos
desempeñan una función esencial en todos los procesos
vivos.
En el transcurso de 2005 un grupo de investigación del Instituto de
Física Química N.N. Semenov de la Academia de Ciencias rusa,
encabezado por el famoso químico Anatoly Buchachenko, demostró los
“efectos isotópicos magnéticos” de la síntesis
biológica de trifosfato de adenosina TFA, que por lo común se
conoce como la sustancia “conductora de energía” clave en prácticamente todas las células vivas. El proceso decisivo
en la síntesis de TFA, conocido como fosforilación, depende de la
actividad de varias enzimas que contienen iones de magnesio en lugares
específicos. Ahora resulta que el ritmo de funcionamiento de estas
enzimas cambia de manera drástica cuando un isótopo de magnesio es
remplazado por otro. En un artículo publicado en la edición del 2
de agosto de 2005 en Proceedings of the National Academy of Sciences de
EU, el profesor Buchachenko y compañía informaron del resultado de
sus investigaciones en los términos siguientes:
En uno de sus brillantes artículos, Weber y Senior señalaban que,
a pesar del gran progreso en nuestro conocimiento de la estructura, y nuestra
comprensión de la dinámica molecular y el funcionamiento de las
enzimas sintetizadoras de TFA, el mecanismo químico de
fosforilación sigue siendo un enigma: “Nuestro entendimiento de la
síntesis de TFA sigue siendo rudimentario en términos
moleculares”. . . La reacción decisiva en la
formación del enlace químico P-O-P que conduce la energía
aún se desconoce. . . En la rama de la química de las
reacciones enzimáticas, todas las ideas se limitan a
especulaciones. . .
[Pero] un atisbo al mecanismo químico se deriva de un fenómeno
notable que se descubrió hace poco: una dependencia de la actividad
fosforilante de las enzimas de la isotopía del Mg [magnesio]. Este efecto
inusitado se encontró en la creatina quinasa y la TFA sintasa. El ritmo
de producción de TFA de las enzimas en las que el ión Mg 2+ tiene
un núcleo magnético 25Mg (de espín nuclear de
5/2, momento magnético, −0,855 magnetón de Bohr) ha
demostrado ser 2 a 3 veces superior a la inducida por las mismas enzimas
con núcleos amagnéticos sin espín 24Mg y 26Mg. El descubrimiento de este efecto llamativo demuestra de manera
convincente que la fosforilación enzimática es un proceso
ión radical de espín electrónico selectivo, en el que el
ión de magnesio Mg 2+ se manifiesta como un reactivo.
El
artículo informa luego del efecto comparable de otra enzima decisiva que
contiene magnesio y que participa en la fosforilación, la fosfoglicerato
quinasa (FGQ). Aquí la tasa de fosforilación es 2,6 veces
más alta con el isótopo magnético Mg–25, que con los
isótopos amagnéticos. Un análisis posterior también
muestra que éste no es un mero efecto de aceleración
cinética, sino que el proceso de reacción sigue trayectorias
diferentes según el isótopo presente.
Los detalles técnicos no son importantes para nuestros
propósitos aquí. El asunto es que se ha abierto un vasto nuevo
campo de la biología y la química en el que las
características magnéticas de isótopos
específicos tienen un papel decisivo. Aunque la demostración
reciente de la especificidad isotópica en la síntesis de TFA, que
se obtiene en materiales de origen sólo biológico, constituye un
caso particularmente sorprendente, estos resultados son congruentes con la
investigación en la llamada “química selectiva de
espín”, que ha venido progresando en los últimos 20
años. Las siguientes citas dan cierto sentido de esta dirección,
al tiempo que resaltan la necesidad de superar la mistificación de la
física cuántica que mencioné:
La química de espín, en tanto campo nuevo de la ciencia
química, se funda en el principio fundamental de que las reacciones
químicas son selectivas en cuanto al espín; sólo las
permiten estados tales de espín de productos cuyo espín total del
electrón es idéntico al de los reactivos y están prohibidos
si necesitan un cambio de espín. Sólo las interacciones
magnéticas pueden cambiar el espín de intermediarios
reactivos. . . Al ser selectivas en cuanto al espín del
electrón, las interacciones químicas entre las especies
químicas que portan el espín (los radicales, por ejemplo)
también son inevitablemente selectivas en cuanto al espín nuclear.
Si tanto el subsistema del espín del electrón como el del
espín nuclear están unidos por el fermi o interacción
magnética hiperfina (IHF), entonces el subsistema nuclear puede afectar
el comportamiento del subsistema del espín del electrón por medio
de la IHF y, por ende, modificar la reactividad química. La selectividad del espín nuclear diferencia los ritmos de
reacción de los radicales (o, en general, de cualquier otra especie
química con espín) con núcleos isotópicos
magnéticos o amagnéticos. Este nuevo fenómeno es el efecto isotópico magnético (EIM), en contraste con el bien
conocido efecto isotópico clásico (EIC), que es consecuencia de la
selectividad de la masa nuclear de las reacciones químicas. Ambos efectos
isotópicos clasifican los núcleos de los isótopos entre los
productos de la reacción: el EIC selecciona los núcleos
según su masa, en tanto que el EIM los selecciona según su
espín y su momento magnético. (A. Buchachenko,
“Comparative Analysis of Magnetic and Classical Isotope Effects”
[Análisis comparativo de los efectos isotópicos magnéticos
y clásicos], Chem. Rev. 1995, 95).
El valor de las interacciones magnéticas de una campo de 100.000 gauss
con un espín nuclear es de sólo ca. 1×10−5 Kcal/mole. . . o menos [es decir, 500.000 veces más
débil que los enlaces intermoleculares y más de 30 millones de
veces más débil que los enlaces covalentes normales—JT]. A
pesar del valor minúsculo de estas fuerzas magnéticas,
demostraremos que pueden controlar la reactividad de pares radicales de una
manera espectacular, si las condiciones supramoleculares son adecuadas. (Nicolas
Turro, Chemical Communications [Comunicaciones químicas],
2002).
Otra dirección de pensamiento, más
especulativa, merece mención:
La disponibilidad de elementos químicos en la Tierra ha engendrado una
variedad casi ilimitada de estructuras y organismos mediante variaciones en la
composición química. Parece que al descubrir alguna función
biológica para, en esencia, todos los elementos químicos (incluso
los “microelementos”), la naturaleza optimiza los recursos de
diversificación química de que dispone. Es probable que una
posibilidad similar surja para la diversidad isotópica de los elementos.
Parece improbable que la naturaleza pueda “pasar por alto” un nivel
adicional de diversificación informativa disponible a través del
grado isotópico de libertad. . . Sternberg, DeNiro y Savage
(1986), y Galimov (1982), presentaron hallazgos muy desatendidos sobre la
composición isotópica de las vías bioquímicas y
genéticas. Por ejemplo, durante la fotosíntesis el carbono que se
obtiene del CO2 consiste en 12C y 13C, pero,
dependiendo de la especie de la planta, sólo uno de estos isótopos
se fracciona de manera preferencial. En la producción de energía
en la forma de TFA, los isótopos de carbono se ubican de forma selectiva,
de modo que se propagarán por toda la serie de reacciones en esa misma
posición. La conservación de la estructura isotópica
perdura, a pesar de que la catálisis de enzimas cambia la estructura
básica del carbono de las moléculas intermedias. . . Un
análisis combinatorio elemental conduce a un número enorme de
permutaciones isotópicas posibles de estructuras químicamente
fijas. Por ejemplo, un segmento de una molécula de ADN con 1
millón de átomos de carbono tiene cerca de 10.000 átomos de 13C distribuidos de manera aleatoria. El número de
distribuciones que pueden distinguirse en términos isotópicos (el
número de colocaciones posibles de los 10.000 átomos entre el
1.000.000 de emplazamientos) es de cerca de 1024.000, mucho mayor que
el número de átomos en el universo”. (J. Pui y Alexander
Berezin, “Mind, Matter and Diversity of Stable Isotopes” [Mente,
materia y diversidad de los isótopos estables], Journal of Scientific
Exploration, vol. 15, 2001).
Pui y Berezin pasan a
especular que las permutaciones de las distribuciones isotópicas en el
tejido del cerebro quizás tengan una función esencial en los
procesos mentales.
Debo hacer hincapié en que el trabajo arriba citado sobre el
“efecto isotópico magnético” sólo representa
una dirección más bien prometedora de investigación. En
relación con la pregunta que planteamos al principio de esta
sección, la obra citada sigue teniendo la debilidad de que sólo se
enfoca en la “maquinaria” química combinatoria de estos
nuevos efectos isotópicos, y no en su relación con los principios
de los procesos vivos per se.
No obstante, en estos estudios podemos ver con claridad que es el ambiente físico–geométrico especial que se crea en el tejido
vivo, el que proporciona el marco en el que cambios isotópicos
“infinitesimalmente pequeños” —los cuales en el dominio
inerte, en circunstancias normales, sólo tendrían meros efectos
marginales en apariencia estadísticos— pueden tener una
función determinante en el transcurso de los acontecimientos
macroscópicos. El carácter único de los procesos vivos
residiría así, no en algún mecanismo o estructura
específicos, sino en el poder de generar y mantener semejantes
geometrías físicas superiores, que Vernadsky identificó
en su obra, pero que LaRouche aborda de manera más apropiada en su
elaboración del principio de Riemann y Dirichlet.
La multiconectividad de la economía de
isótopos con la astrofísica, la colonización del espacio y
la historia del sistema solar
La existencia física del Hombre, que depende de su acción
constante en el universo, da lugar a otro aspecto de la relación entre
los dominios vivo, inerte y noosférico, que cobra una nueva forma en la
economía de isótopos.
Hasta ahora la humanidad ha satisfecho sus necesidades de materias primas
casi por completo con la extracción de yacimientos superficiales o
subterráneos de minerales que se crearon en el transcurso de cientos de
millones o incluso miles de millones de años de la historia
geológica de la Tierra. El origen de muchos, si no es que de la
mayoría de esos yacimientos, está conectado con la actividad de
los organismos vivos (en su mayoría microorganismos) que concentraron
elementos químicos específicos de su ambiente y los depositaron en
formaciones fósiles, sedimentos o rocas biológicamente
transformadas.
En prácticamente todos los casos, el ritmo actual de
extracción de materias primas por el hombre excede con mucho —en
algunos casos por miles de millones de veces— el ritmo al que
depósitos de minerales de calidad comparable se reponen o renuevan de
manera espontánea en la naturaleza.
Es evidente que este proceso no puede continuar de manera indefinida. Es
cierto que, en términos absolutos, el hombre aún está muy,
muy lejos de agotar la inmensa reserva de yacimientos minerales de la Tierra,
pero los límites implícitos de la modalidad puramente extractiva
actual se reflejan en el creciente costo físico marginal de la
extracción y el procesamiento necesarios para obtener cualquier calidad
dada de material. Nos vemos entonces obligados a ir a regiones cada vez
más remotas de la superficie de la Tierra, para toparnos con un costo
mayor del transporte y otra infraestructura, cavar o perforar a más
profundidad en la tierra o el fondo del mar, recurrir a yacimientos de menor
calidad con costos más altos de procesamiento conforme los
depósitos de más calidad se agotan, y así
sucesivamente.
Estas circunstancias, junto con la distribución geográfica
tan dispareja de la mayoría de las materias primas, han llevado a serios
cuellos de botella al nivel regional, y a un incremento de las tensiones
geopolíticas por las maniobras de naciones como China para asegurar su
acceso a suministros de materias primas, al mismo tiempo que intereses
financieros especulativos actúan para apoderarse de esos mismos
suministros, en vísperas de una anticipada crisis de gran magnitud del
sistema financiero mundial.
Ante esta situación, Lyndon LaRouche ha propuesto una
“estrategia Vernadsky”, con un plazo de 50 años. La
estrategia Vernadsky estipula la realización de inversiones
físicas a gran escala y otras medidas para garantizar el abasto adecuado
de materias primas a precios estables para todas las naciones del orbe, como un
componente decisivo de una política general de reorganización del
sistema financiero y económico mundial. La estrategia de LaRouche parte
del entendimiento de que la tarea de asegurar el abasto a largo plazo de
materias primas para la economía mundial por los próximos 50
años, sólo puede resolverse desde la perspectiva de la
“noosfera” de Vernadsky: el hombre tiene que progresar ahora, de la
etapa de la simple extracción de recursos minerales de una manera
más o menos desorganizada, a la gestión y desarrollo conscientes
del proceso entero de generación y aprovechamiento de esos recursos a una
escala planetaria. Esto no sólo incluye los procesos
“naturales” de reposición de los recursos de la biosfera,
sino también —¡cada vez más!— la creación deliberada de recursos, “de novo”, por
parte del hombre, mediante procesos tales como la transmutación a gran
escala de elementos. Al mismo tiempo, necesitamos avances revolucionarios en la
tecnología de extracción y procesamiento de materias primas y
reciclamiento de desechos, que compensen la tendencia del aumento marginal en el
costo de las materias, al tiempo que se incrementa de manera radical la gama y
calidad de los productos finales.
Hasta el surgimiento de la energía nuclear, la existencia del hombre
se había fundado exclusivamente en la provisión de unos 83
elementos químicos que ya existían en la biosfera, y cuya
existencia se remonta casi del todo a la génesis del sistema solar mismo
(la excepción son ciertos elementos que creó la
desintegración radiactiva de otros).
En el transcurso de la evolución de la biosfera, la
circulación de elementos químicos en la Tierra —la
migración geoquímica de los átomos, como Vernadsky la
llamaba— vino a dominarla cada vez más la acción de los
procesos vivos. En virtud de su capacidad para concentrar los elementos que
existen en su ambiente, los organismos vivos, en especial los microorganismos,
de hecho crearon muchos de los depósitos minerales que el hombre explota
hoy como fuentes de materias primas. Además, incluso procesos
“inorgánicos” de formación y evolución de
minerales que no involucran la acción directa de organismos vivos
estuvieron bajo la influencia indirecta de la migración
biogénica de elementos en la biosfera. Esta migración de
elementos de ningún modo se limita a los confines inmediatos de la
superficie terrestre; la “esfera de influencia” de la biosfera se
extiende, vía la circulación vertical constante de agua (y de los
iones y gases disueltos en ella), hasta los mantos superior e inferior de la
Tierra.
Esa actividad extractiva, y el posterior transporte y transformación
de elementos mediante la actividad económica humana, han cambiado de
manera fundamental las pautas de “migración” de los elementos
minerales de la biosfera, lo que por fin ha llegado al grado que el hombre
empieza a crear nuevos recursos mediante la transmutación de
elementos. Esta última etapa Vernadsky la asociaba con el surgimiento de
la noosfera.
Mientras meramente usábamos los elementos, al hombre no le
interesaba de manera directa el proceso histórico de su creación
como tales, aunque al geólogo y al explorador minero les interesa mucho
la historia de sus migraciones subsiguientes en la Tierra. Ahora bien, esto
cambia de forma radical.
La economía humana se torna
‘astrofísica’
Por primera vez la actividad humana está trascendiendo los
límites de la mera redistribución y combinación de
elementos, para encargarse de sus procesos de generación. Sin duda, el
negocio de la síntesis a gran escala de especies atómicas viejas y
nuevas por medio de reacciones nucleares, que es característico del
surgimiento de la economía de isótopos, lleva la actividad
económica del hombre a una relación íntima inmediata con el
dominio astrofísico y los procesos de formación de las estrellas y
los planetas. Descubrir los principios que ocultan estos procesos y aplicarlos a
la tarea de desarrollar más la biosfera y su extensión a regiones
siempre más grandes del sistema solar, autodefine al hombre como un ser universal, y no como un mero habitante del planeta Tierra; un ser que
actúa de acuerdo con una direccionalidad superior inserta en el cosmos
entero.
Y a la inversa, el flujo constante de nuevos descubrimientos
científicos en la física subatómica y esferas relacionadas,
que se necesita para realizar y mantener una economía de isótopos
en la Tierra, no puede darse sin extender la actividad humana a gran escala
más allá de la proximidad orbital de la Tierra, a Marte y, a
la larga, más allá.
Hay muchas razones científicas y
físico–económicas interconectadas para esto. Incluso la
noción de una “estrella de neutrones”, por ejemplo, sugiere
que los procesos subatómicos tienen un carácter en esencia astrofísico. El creciente dominio de la humanidad de semejantes
procesos exige una amplia investigación multiespectral de objetos
anómalos distantes en nuestra galaxia y en otras, que no puede hacerse
desde la Tierra o ni siquiera desde el sistema de la Tierra y la Luna, por las
perturbaciones insuficientes de paralaje que se derivan del Sol y otras causas.
Debemos ser capaces de llevar a cabo mediciones interferométricas y otras
relacionadas a una escala de longitud comparable a la de la órbita de
Marte, mediciones que a la larga involucrarán cientos de estaciones de
medición láser interconectadas, “estacionadas” en
órbitas solares apropiadas. Establecer y mantener estas estaciones, y
actualizarlas constantemente con nuevos instrumentos para seguir el ritmo de los
avances científicos y tecnológicos, requiere la
intervención humana constante y, por consiguiente, una amplia base
logística que apoye a la fuerza laboral necesaria y su actividad en estas
regiones orbitales distantes.
Pueda que algunos aun entre los profesionales no estén de acuerdo
con nuestra afirmación de que el progreso de la física nuclear y
la astrofísica de veras necesita semejante programa —¡al
parecer extravagante!— de colonización espacial. El tono de
“autoridad” de los tratados astronómicos y
astrofísicos comunes en cuanto a cuestiones tales como el principio del
universo, la estructura de nuestra galaxia y el mecanismo de formación de
estrellas, los procesos nucleares que ocurren en el Sol, las estrellas, etc., a
menudo da la impresión errónea de que los hechos básicos en
estos campos ya han quedado establecidos, y que sólo resta investigar los
detalles. No obstante, la verdad es que muy pocas de esas conclusiones se han
establecido con algún grado real de certeza; ni podrán
establecerse, en tanto la actividad humana siga atada a la proximidad
inmediata de la Tierra.
Éste es el caso incluso al nivel de clases “elementales”
de información astronómica tales como las distancias y movimientos
verdaderos de objetos relativamente “cercanos” de nuestra galaxia.
Una demostración sorprendente de esto se dio a fines de 2005, cuando un
grupo internacional de astrónomos determinó, por
triangulación directa, que los cálculos previos de la distancia
que separa a nuestro sistema solar del brazo espiral más cercano en la
galaxia —el brazo de Perseo— ¡estaban 200% errados! Eso
ocurrió a pesar de la impresión de superprecisión que dan
las mediciones astronómicas modernas, que se generan con la ayuda de
sofisticados instrumentos terrestres y observatorios orbitales.
Es evidente que los mapas de nuestra galaxia, que innumerables tratados y
libros de texto reproducen como “hechos”, tendrán que
rehacerse. Tal vez sepamos tan poco de la forma, historia y funcionamiento
interno verdaderos de nuestra galaxia hoy, ¡como Europa sabía del
continente de América antes de los viajes de Colón! Es cierto que
Eratóstenes, muchos siglos antes, pudo determinar el diámetro de
la Tierra con un grado sorprendente de precisión a partir de las pruebas
de una pequeña porción de su superficie, tal como Johannes Kepler,
un siglo después de Colón, pudo descubrir el principio
básico de los movimientos planetarios en nuestro sistema solar sin dejar
la Tierra. Sin embargo, la importancia de estos triunfos de la razón
humana no es que podamos aprenderlo todo sobre el universo tan sólo
sentándonos en nuestro sillón en la Tierra, sino que, más
bien, gracias a los logros acumulados de la razón humana hemos aprendido
lo suficiente, al trabajar desde la Tierra, como para ir ahora más allá de ella. Así, al descubrimiento de
Eratóstenes de inmediato lo siguió el primer intento documentado
de circunnavegar la Tierra.
El asunto aquí es que nuestro conocimiento actual de la
física nuclear, aunque muy imperfecto, en cualquier caso basta para
construir las primeras generaciones de vehículos espaciales de
fisión y fusión nuclear, y otras tecnologías, y que eso nos
permitirá llevar adelante en el sistema solar la clase de actividades
necesarias para asegurar un flujo de avances futuros en la física
nuclear.
Como es natural, la mera expansión espacial de la actividad humana
constituye sólo una condición necesaria para la
continuación del progreso científico. Para hacer los avances, no
sólo necesitamos observaciones, sino mejores formas de pensar en
ellas.
De vuelta a la dinámica: el renacimiento de
la física nuclear
En la mayor parte de la deliberación hasta el momento, me he
limitado a cosas que pueden proyectarse en base al conocimiento y las
capacidades tecnológicas actuales. Estos avances bastan para
“insertar” al mundo en la “órbita” de la
economía de isótopos, pero no para mucho más. Muy pronto
apremiará la necesidad de emprender una muy pospuesta revisión
abarcadora de las teorías físicas actuales.
El éxito de mediano y largo plazo de la economía de
isótopos depende de hacer lo mismo en la física nuclear y la
ciencia física en general, tal como Johannes Kepler lo hizo en la
astronomía hace casi 500 años.
Sin duda, el estado actual de la física nuclear tiene un
extraño parecido con el baturrillo de modelos y procedimientos de
cálculo en conflicto que caracterizaban a la astronomía en tiempos
de Kepler, y con el que barrió al hacer época con su Nueva
astronomía. Kepler sabía muy bien que no estaba simplemente
corrigiendo teorías defectuosas, sino que combatía un fraude
monstruoso, perpetrado siglos antes por Aristóteles y Ptolomeo, cuya
promoción política dio pie a una “edad oscura” de la
ciencia europea, desde la muerte de Arquímedes hasta el Renacimiento del
siglo 15.
|
Sistema de un cohete nuclear listo
para efectuar una prueba; sobre las siglas NRX (reactor experimental NERVA) se
aprecia el reactor y el sistema de escape. El programa estadounidense de
propulsión nuclear conocido como NERVA (Motor Nuclear para su
Aplicación en Cohetes) se desarrolló en los 1960 como un
componente esencial del programa espacial, pero en 1972 se liquidó el
programa nuclear como parte de un ataque contra la ciencia, y contra la nuclear
en particular. Ahora la NASA está financiando de nuevo sistemas de
propulsión nuclear en su “proyecto Prometeo”. |
Esperemos que la suerte de educación que se obtiene al trabajar con
el método de descubrimiento de Kepler, le permita a una nueva
generación de jóvenes físicos cumplir ahora una
misión análoga en la física nuclear y la
astrofísica.
Para darte una probadita de lo que viene, en las dos últimas
secciones de este artículo quiero empezar con una simple paradoja, que
uno de los fundadores de la física nuclear, Werner Heisenberg,
retomó al final de su vida.
La pregunta es simplemente ésta: a casi todos nosotros nos han
criado con la doctrina empirista reduccionista de que cada entidad en el
universo está hecha de alguna suerte de elementos más simples o
“bloques de construcción” que forman parte de ellos. Un
ejemplo típico de esto es el llamado átomo de Rutherford, la
noción de que las moléculas están compuestas de
átomos, los átomos de electrones y núcleos, los
núcleos de protones y neutrones, etc. Pero, ¿qué queremos
decir en realidad cuando decimos que una entidad forma parte de otra o
que está “hecha” de tales partes?
Sin necesidad de adentrarnos en nada tan avanzado como la física
nuclear, podemos demostrar la paradoja de una manera muy bella con el caso del agua. En la secundaria aprendemos que el agua la componen entidades
llamadas moléculas de agua, y que a éstas las componen un
átomo de oxígeno y dos de hidrógeno, cada uno según
la fórmula H2O. ¡Pero no hay relación simple
alguna entre las propiedades del oxígeno y el hidrógeno,
por una parte, y las del “agua” que se supone que está
compuesta por ellos! De hecho, será muy difícil hacer que el
estudiante de química de secundaria, al dejar que un poco de gas de
oxígeno e hidrógeno se combinen, ¡reconozca nada en lo
absoluto en las gotas de “agua” que se forman como producto de
la pequeña explosión en su tubo de ensayo, que sugiera
cuáles son las propiedades de esos dos gases! Cuando mucho, las masas de las porciones reactivas del hidrógeno y el
oxígeno, o más bien su suma, parece haberse preservado como
la masa del agua resultante. Pero hasta esta invariancia (aproximada) se
trasgrede de manera notable en el mundo de las reacciones nucleares;
allí, el resultado de la fusión de dos núcleos puede ser
significativamente más ligero que la suma de sus masas.
|
Ciclotrón magnético Chicago a medio ensamblar. Este
ciclotrón, el segundo del mundo, lo diseñó y
construyó el finado doctor Robert Moon y un equipo de alumnos del doctor
William Harkins en la Universidad de Chicago en 1936. (Foto: cortesía del
doctor Robert Moon). |
|
Estas anomalías dejan claro que el origen de las propiedades
del agua (por ejemplo) no puede encontrarse ni en el oxígeno ni en el
hidrógeno, ni por separado ni juntos. ¿De dónde vienen
entonces esas propiedades? ¿No debiéramos más bien suponer
que el “agua” ya estaba presente como un estado potencial de
organización, y que sólo necesitaba de los dos como un medio para expresarse? La esencia del “agua” yace en el cambio que ocurrió en la reacción.
La fuente de la dificultad es la tendencia, que se remonta a
Aristóteles y que la contrarrevolución de Galileo y Paolo Sarpi
contra el método platónico de Kepler renovó, a considerar
falsamente los objetos de los sentidos como “reales”, y las ideas
como “abstractas”, cuando en realidad lo contrario es verdadero; a
saber, que son las ideas las que son reales y que lo que llamamos objetos
sensoriales son meros efectos que se derivan de ellas.
Este error elemental, a su vez, yace en el origen de los vanos intentos aun
vigentes de los físicos por deducir las propiedades de los núcleos
atómicos a partir del supuesto de que están “hechos”
de partículas que interactúan por pares según esta o
aquella fórmula matemática. Este intento por emular a Isaac
Newton, quien de hecho no pudo explicar para nada las características
armónicas más elementales del sistema solar con su ley de fuerza,
ha ocupado a los físicos por casi un siglo. Empero, ninguno ha podido
encontrar una solución, y la búsqueda en vano de una ha conducido
a todo el desarrollo teórico de la física nuclear a un
callejón sin salida.
En los viejos tiempos, muchos científicos tenían cierta
conciencia del fraude del reduccionismo. Allá a principios de los 1970,
por ejemplo, en el proceso que llevó a la creación de la
Fundación de Energía de Fusión, Lyndon LaRouche
conoció al físico de la Universidad de Chicago y químico
físico Robert Moon, un veterano del proyecto Manhattan de cuando la
guerra, que había diseñado el primer ciclotrón que se
empleó en el mismo. Según la historia que escuché, en ese
entonces Moon exteriorizó su opinión de que, “la
física nuclear contemporánea es un montón de basura”.
Como un ejemplo de esto, Moon afirmó que la interpretación
acostumbrada de los famosos experimentos de “dispersión
alfa”, de los que Rutherford y físicos posteriores derivaron sus
cálculos del tamaño y otras características fundamentales
del núcleo atómico, se fundaban en supuestos equivocados y
arbitrarios sobre la naturaleza de las interacciones entre el núcleo y
las partículas alfa que se usaban para bombardear al
núcleo.
De modo parecido, según Moon, la totalidad de la
investigación sobre la fusión nuclear controlada se había
arrojado por el camino equivocado, por el supuesto errado de que tenía
que superarse la llamada “fuerza de Coulomb” entre los
núcleos para que ocurrieran las reacciones de fusión. Este
supuesto es el que imposibilita la “fusión polarizada” de la
clase que LaRouche propone. En la búsqueda de medios para “superar
la barrera de Coulomb”, los científicos de fusión se vieron
obligados a impartir velocidades enormes a los núcleos, lo que a su vez
significó trabajar con temperaturas de millones de grados
centígrados. Y, no obstante, como muchos experimentos demuestran, puede
hacerse que la “barrera” desaparezca si el sistema se ubica en una
geometría física conveniente (la llamada mecánica de ondas
reconoce ya semejante posibilidad, pero de un modo sofista, como un
“efecto túnel resonante”).
Pero si los estados de los núcleos atómicos no los determinan
fuerzas elementales, y si ciertamente no hay tal cosa como una “fuerza
elemental”, entonces, ¿qué determina los estados de los
núcleos atómicos? El primer paso sería admitir que los
propios estados de organización, y la intención que los
acompaña, son los agentes eficientes inmediatos de los procesos
nucleares. Es precisamente con esta idea en mente, que el finado doctor
Moon, inspirado por sus deliberaciones con LaRouche, propuso en 1985 un nuevo
enfoque geométrico para la física nuclear, sin los supuestos sobre
las “fuerzas elementales”. Al proponer su ahora famoso modelo del
núcleo en términos de sólidos regulares engastados unos en
otros, Moon puso de relieve, por ejemplo, que “el protón es una
singularidad que existe en la geometría de todo el espacio, y que depende
de ella”. Insistía que las partículas surgen de las
geometrías, en vez de que las geometrías que surgen de las
partículas decidan organizarse de esta o aquella manera.
¿Pero cómo, por ejemplo, puede una entidad geométrica
—digamos, un sólido regular— ejercer cualquier clase de
acción eficiente en el universo? Considera los siguientes cuatro pasajes,
uno del Timeo de Platón, dos de fragmentos póstumos de
Bernhard Riemann (185?), y uno del último escrito publicado de Werner
Heisenberg (1976), respectivamente:
Platón en el Timeo:
Cuando vemos que algo se convierte permanentemente en otra cosa, por ejemplo el
fuego, no hay que denominarlo en toda ocasión “este” fuego,
sino siempre “lo que posee tal cualidad”, y no “esta”
agua, sino siempre “lo que tiene tal característica”, ni hay
que tratar jamás nada de aquello para lo que utilizamos los
términos “eso” y “esto” para su
designación, en la creencia de que mostramos algo, como si poseyera
alguna estabilidad, puesto que lo que no permanece rehuye la aseveración
del “eso” y el “esto” y la del “para esto” y
toda aquella que lo designe como si tuviera una cierta permanencia. Pero si bien
no es posible llamar a cada uno de ellos “esto”, lo que tiene tales
características y permanece siempre semejante en el ciclo de las
mutaciones puede ser denominado según las cualidades que posee, y
así es fuego lo que posee en todo momento tal rasgo e, igualmente, todo
lo
generado.[1]
Riemann:
I. Lo que un Agente pugna por comprender ha de determinarlo el concepto de la
voluntad; su actuación no puede depender de otra cosa que no sea su
propia naturaleza.
II. Este requisito se cumple cuando el Agente pugna por mantenerse o
establecerse a sí mismo.
III. Pero semejante acción es impensable si el Agente es una cosa, una
existencia, pero sólo es concebible cuando es una condición
(estado) o una relación. Cuando hay una pugna por mantener o crear algo,
entonces las desviaciones de este “algo” —de hecho,
desviaciones en varios grados— han de ser posibles; y de hecho este
“algo”, en la medida que esta pugna contraríe otras
tendencias, sólo se mantendrá o creará de manera tan exacta
como sea posible. Pero no hay un grado de existencia; una diferenciación
en términos de grado sólo es concebible para un estado o una
relación. Por tanto, cuando un Agente pugna por mantenerse o crearse, ese
Agente tiene que ser una condición o una
relación.
Segundo fragmento:
Con cada acto del pensamiento, algo perdurable y sustancial se asienta en
nuestra alma. Yo lo llamo Geistesmasse [masa de pensamiento]. Por tanto,
todo pensamiento es la generación de nuevas Geistesmassen. . . Las Geistesmassen son imperecederas,
eternas. Sólo el poder relativo de estas condiciones cambia, por medio de
la integración de nuevas Geistesmassen. Las Geistesmassen no necesitan un portador material ni ejercen efecto constante alguno en el mundo
de las apariencias. No están relacionadas con ninguna parte de la materia
y, por consiguiente, no se localizan en el espacio. Pero cualquier
generación nueva de Geistesmassen, y cualquier conexión
nueva entre ellas, exige un sustrato material. . . Cada Geistesmasse pugna por generar una Geistesmasse similar. Pugna,
por ende, por causar la misma forma de movimiento de materia mediante la cual
fue generada.
Por último, Heisenberg:
Creo que ciertas tendencias erróneas en la teoría de las
partículas —y me temo que tales tendencias sí se dan—
las causa la idea falsa de que es posible eludir por completo el debate
filosófico. Partiendo de una filosofía pobre, plantean las
preguntas equivocadas. . .
Antes [de los experimentos de Andersen y Blackett, que demostraban la llamada
producción de electrones y positrones en pares mediante un cuanto de
luz—JT) se presumía que había dos clases fundamentales de
partículas, electrones y protones. . . su número era
fijo y se los llamaba partículas “elementales”. Se
consideraba que la materia en última instancia la constituían
electrones y protones. Los experimentos de Andersen y Blackett proporcionaron
pruebas definitivas de que esta hipótesis era incorrecta. Los electrones
pueden crearse y aniquilarse; su número no es constante; no son
“elementales” en el sentido original de la
palabra. . .
No hay diferencia entre las partículas elementales y los sistemas
compuestos [tales como los átomos y las moléculas—JT].
Éste es quizás el resultado experimental más importante de
los últimos cincuenta años. Ese avance sugiere de manera
convincente la siguiente analogía: comparemos las llamadas
partículas “elementales” con los estados estacionarios de un
átomo o molécula. Podemos considerar éstos como varios
estados de una sola molécula o como las muchas moléculas
diferentes de la química. Uno puede hablar así simplemente de un
“espectro de la materia”. . .
Las preguntas y descripciones equivocadas se cuelan de manera automática
en la física de partículas y llevan a formulaciones que no encajan
en la situación real de la naturaleza. . . Tendremos que
aceptar el hecho de que la información experimental a una escala muy
grande y muy pequeña no necesariamente produce descripciones, y tenemos
que aprender a vivir sin ellas. . . . La filosofía de
Platón parece ser la más adecuada.
El espectro de las partículas sólo puede entenderse si se conoce
la dinámica subyacente de la materia; la dinámica es el problema
central.
La radiactividad, los isótopos y las
ironías del sistema periódico
Con estas paradojas en mente, la intención de los párrafos
siguientes es ofrecerle al lector —sobre todo al lego— algunos
breves antecedentes del descubrimiento y la naturaleza de los isótopos, y
de algunos principios de la física nuclear relacionados con ellos, hasta
donde se conocen en la actualidad.
Uno siempre debiera recordar que la física atómica y nuclear,
en la medida que sea válida, evolucionó al aplicar al dominio microfísico el mismo método esencial que Johannes Kepler
usó para su descubrimiento original del principio de la
gravitación en el astrofísico. Esa relación entre la
astrofísica y la microfísica es congruente y necesaria.
Pasó a primer plano, una vez más, en la manera en que la
física nuclear evolucionó a partir de las anomalías del
sistema periódico de los elementos. Así que retomaré la
historia desde ese momento.
|
Werner Heisenberg escribió que cuando se plantean las preguntas
equivocadas en la física de partículas, es natural que surjan las
respuestas equivocadas. “El espectro de las partículas sólo
puede entenderse si se conoce la dinámica subyacente de la materia; la
dinámica es el problema central”, escribió, al recomendar el
estudio de la filosofía de Platón para resolver este
problema. |
Cuando Dimitri Mendeléiev comenzó su trabajo
científico en 1855, el supuesto axiomático central de la
química era la noción de un elemento químico. Esta
noción se asocia con la idea de que no podemos diferenciar o dividir la
sustancia de manera indefinida, sin encontrar alguna suerte de límite,
frontera o, como decimos, singularidad. En la práctica específica
de la química, hasta la época de Mendeléiev, la
exploración de esta materia en lo principal cobró la forma de lo
que se llaman métodos de separación química: la
destilación, la precipitación, la electrólisis, la
centrifugación, etc. Hablando en términos generales, comenzamos
con cualquier sustancia y le hacemos varias cosas para ver si podemos inducir
una separación o diferenciación del material original en dos o
más sustancias nuevas, cada una con características claramente
distintas.
Así, en la electrólisis, producimos hidrógeno y
oxígeno a partir del agua, por ejemplo. Y después tomamos esas dos
nuevas sustancias que produjimos por la separación de la primera, y
tratamos de hacer lo mismo con cada una de ellas. Seguimos haciendo eso,
tratando de llevar el proceso hasta el límite, a una singularidad. A
través de esta clase de exploración, los químicos de hecho
sí llegaron a un límite, como se esperaba, en la forma de lo que a
veces se llamaban “cuerpos simples” o elementos; sustancias que al
parecer no podían diferenciarse más. Desde la antigüedad, se
habían identificado varios de tales elementos: el hierro, el cobre, el
estaño, el plomo, el mercurio, el oro, la plata, el sulfuro y el carbono.
Unos cinco elementos más se añadieron en la Edad Media, y luego,
bajo la influencia de la obra de Godofredo Leibniz para el inicio de la
Revolución Industrial, hubo, en tiempos de Leibniz, desde más o
menos los 1740, un desarrollo explosivo de la química física, de
modo que para cuando Mendeléiev se graduó del Instituto Superior
Pedagógico de San Petersburgo, ya se conocían unos 64 elementos
químicos.
Hay diferentes hipótesis contrarias asociadas con el término
“elemento químico”. El empirismo ha insistido, por ejemplo,
en el axioma o idea dizque de suyo evidente, que por desgracia sigue
repitiéndose en gran parte de nuestra educación básica, de
que los elementos representan los irrompibles “bloques de
construcción” fundamentales de la materia, cuya supuesta cualidad
de realidad se toma de los primeros años del bebé en el corralito.
Por el contrario, el gran químico francés Lavoisier adoptó
la perspectiva más adulta de que los elementos químicos son singularidades, momentos de cambio, no en la búsqueda de los
bloques de construcción fundamentales, sino de lo que él
llamó los “principios” de la materia, el principio de
generación de la materia.
En 1869 Mendeléiev publicó su primera versión de la
tabla periódica, con la que demostró que los elementos
químicos constituyen un solo organismo ordenado de forma armónica,
exactamente como Kepler había considerado el sistema de las
órbitas planetarias.
El descubrimiento de Mendeléiev del sistema periódico lo
inspiró su trabajo como maestro. En la enseñanza, lo irritaba y
provocaba la masa caótica de datos sobre los elementos individuales, y se
preguntó: ¿De veras es ciencia lo que hacemos aquí?
¿Puedo presentar esto como ciencia? Mendeléiev escribió lo
siguiente:
La mera acumulación de hechos, aun una colección en extremo
amplia. . . no constituye un método científico; no
brinda ni una dirección para otros descubrimientos ni merece siquiera el
nombre de ciencia en el sentido superior de esa palabra. La catedral de la
ciencia no sólo necesita material, sino un diseño,
armonía. . . un diseño. . . para la
composición armónica de partes y para mostrar el camino por el
cual podrá generarse el material nuevo más
fecundo.
Mendeléiev arribó a este descubrimiento
después de muchos intentos infructuosos de otros químicos, al
yuxtaponer dos clases distintas de ordenamientos experimentalmente definidas de
los elementos:
Primero, la división natural de los elementos en grupos
distintos, cada uno compuesto por elementos con características
similares o análogas, en relación con la totalidad de los
elementos, en términos de las clases de compuestos químicos y
cristales que forman, y otras propiedades
físico–químicas.
Segundo, la “posición” de los elementos en una sola
secuencia, según los valores crecientes de su peso atómico,
empezando por el hidrógeno y terminando con el uranio.
La elección de Mendeléiev de este segundo principio de
ordenamiento fue decisivo. De modo correcto planteó la hipótesis
de que los “pesos atómicos”, de entre todos los
parámetros físicos y químicos conocidos, reflejaban una constante, un “algo” que se mantiene en todas las
transformaciones químicas. Al mismo tiempo, Mendeléiev
rechazó con decisión todo intento de explicar de manera simplista
y lineal la secuencia de los elementos en términos de su
conformación; por ejemplo, a partir del hidrógeno como el
principal “bloque de construcción”. Mendeléiev
insistía que cada elemento químico representaba una verdadera
“individualidad”.
Al batallar con las ambigüedades e imprecisiones de la
información empírica que había entonces, Mendeléiev
finalmente dio a luz al “sistema natural de los elementos”, como lo
llamó, y al descubrimiento fundamental de que las propiedades
químicas de un elemento son en esencia una función
multiperiódica del número ordinal del elemento en la serie
ascendente de los pesos atómicos. Este principio no sólo
permitió reunir casi todo el conocimiento de los elementos
químicos entonces vigente en un todo congruente, sino que también
llevó a Mendeléiev, y a otros después, a predecir con tino
la existencia y características de elementos químicos individuales
“faltantes”.
|
Dimitri Mendeléiev. “Las implicaciones de lo que ha puesto en
marcha el descubrimiento de la radiactividad y los isótopos, al
desarrollar el entendimiento ‘kepleriano’ de Mendeléiev del
sistema periódico, van mucho más allá de cualquier cosa que
el mundo haya visto hasta ahora”. |
El proceso dinámico subyacente
Pero Mendeléiev mismo consideraba su descubrimiento como un mero primer paso. En su artículo de 1870, “Sobre el sistema
natural de los elementos”, escribió:
Cuando logremos descubrir las leyes exactas de la dependencia periódica
de las propiedades de los elementos a partir de sus pesos atómicos, y de
las interrelaciones atómicas entre los elementos, entonces estaremos
más cerca de entender la verdadera naturaleza de las diferencias mutuas
entre ellos; entonces la química podrá dejar atrás el
dominio hipotético de los conceptos estáticos que ha imperado
hasta ahora, y se abrirá la posibilidad de aplicar a la química el enfoque dinámico que con tanto provecho se ha empleado en la
investigación de la mayoría de los fenómenos
físicos [énfasis añadido].
El avance
en el descubrimiento del proceso dinámico que subyace en el
sistema periódico vino de tres direcciones experimentales. Primero, el
estudio de las anomalías del sistema de los elementos: sus lagunas aun
sin resolver; la cuestión de por qué la serie de los elementos
parece interrumpirse en el uranio; y, por último, el carácter
anómalo de los propios pesos atómicos, cuyas proporciones por lo
general se aproximan, pero difieren de las de los números enteros
simples. Segundo, la investigación de varias formas de radiación que emiten los átomos. Tercero, la
búsqueda de las anomalías de la geoquímica, al investigar
la distribución de los elementos en la naturaleza, en minerales, por
ejemplo, donde se encuentra que ciertos elementos están estrechamente
asociados unos con otros, “como si” tuvieran alguna relación
“hereditaria” entre sí.
A partir del descubrimiento de Röntgen de los rayos X, que se generan
cuando electrones acelerados impactan la superficie de un metal, Becquerel
descubrió que las sales de uranio emitían de manera
espontánea una suerte de radiación débil, capaz de
oscurecer las placas fotográficas, pero al parecer sin la necesidad de
estímulo externo alguno. Más tarde, Marie Curie
acuñó el término “radiactividad”, para sugerir
que la fuente de la radiación de Becquerel yacía en una actividad
dinámica inherente a los átomos mismos. Al darle seguimiento a
esta situación con un nuevo método de medición, Marie
Curie investigó todos los minerales disponibles, y
descubrió que la radiación de Becquerel estaba presente exclusivamente en minerales que contenían uranio y torio, los
elementos último y penúltimo del sistema de Mendeléiev.
Ciertas anomalías la llevaron a sospechar que la fuente principal de la
radiación no eran el uranio y el torio en sí, sino los rastros de
algún otro elemento o elementos asociados con ellos en los mismos
minerales. A la larga, Marie y su marido, Pierre, pudieron aislar dos nuevos elementos muy radiactivos a partir de una gran cantidad de
pecblenda, el subproducto del mineral de uranio: primero el polonio, y luego el
radio, con lo que llenaron los espacios vacíos de los números
ordinales 84 y 88 en la tabla de Mendeléiev.
|
Marie Curie supuso que la radiactividad estaba conectada con un proceso de
“transformación atómica”, que subyacía en la
asociación íntima del radio y el polonio con el uranio y ciertas
otras sustancias. Investigaciones posteriores confirmaron su conjetura: el radio
iba convirtiéndose lentamente en plomo”. (Foto:
clipart.com). |
Eso fue en 1898. En los años que siguieron hubo una avalancha de
nuevos descubrimientos experimentales. Se descubrió que el radio,
además de emitir un continuo resplandor azul, también
producía cantidades significativas de calor, que cada año
equivalían a la combustión de 100 veces su peso en carbón.
Y, no obstante, la emisión de luz y calor del radio parecía
continua, año tras año, sin disminución perceptible. Pero,
Curie supuso que esa radiactividad estaba ligada a un proceso de
“transformación atómica” que, de algún modo,
subyacía en la asociación íntima del radio y el polonio con
el uranio y otras ciertas sustancias que siempre se encuentran en los minerales
que lo contienen, y que el radio muy despacio iba transformándose en uno
u otros de los elementos.
Investigaciones posteriores confirmaron su suposición: el radio se
transformaba muy lentamente en. . . ¡plomo! El ritmo de
transformación era tan lento que, luego de unos 1.600 años,
sólo cerca de la mitad de la cantidad original de radio se
habría convertido en plomo, junto con una simultánea
liberación gradual de gas de helio. En este proceso, el radio
habría emitido una cantidad de calor equivalente a casi un
millón de veces su peso en carbón. De inmediato se hizo
evidente que el descubrimiento de esta nueva energía
“atómica” llevaría a una revolución en los
asuntos humanos, tan pronto como se encontraran los medios para acelerar el
proceso espontáneo, al parecer muy lento, de transformación
atómica.
Entre tanto, se fue aclarando de manera gradual el cuadro más amplio
de la existencia de varias “cadenas de desintegración
radiactiva” distintas, empezando por el uranio y el torio, en cuyo proceso
ocurren muchas transformaciones atómicas sucesivas de modo
simultáneo y a ritmos promedio muy diferentes, y donde la
generación y desintegración del radio y el polonio constituyen
pasos intermedios de camino al “destino final”, que es el plomo. Una
de ellas, por ejemplo, sufre 15 transformaciones, que saltan de arriba para
abajo en el sistema periódico, antes de llegar por fin al plomo. Algunos
de los pasos se dan en segundos, otros en algunos minutos o días, y otros
más duran años, hasta varios miles de millones en el paso
inicial desde el uranio.
Como Mendeléiev había anticipado, empezó a entrar en
perspectiva una realidad muy dinámica bajo la superficie en apariencia
tranquila del sistema periódico, con sus relaciones aparentemente fijas:
un mundo de creación, muerte y metamorfosis de elementos en el que operan
principios diferentes a los que expresa la tabla periódica per
se.
La transmutación y el descubrimiento de
isótopos
Hasta entonces, la radiactividad sólo le concernía a las
transformaciones radiactivas espontáneas que ocurren en un puñado
de elementos. Pero, para 1926, los científicos habían aprendido a
realizar las primeras “transmutaciones artificiales” de otros
elementos, al transformar átomos de nitrógeno en átomos de
oxígeno mediante su exposición a una fuente radiactiva. Como es
evidente, la transmutación de elementos —el sueño de los
alquimistas— era una potencialidad universal. La propia perspectiva
sugería que la distribución actual de los elementos en la Tierra
es un “fósil” de un proceso de evolución que
posiblemente implique muchas formas de reacciones nucleares. El fenómeno
de la energía atómica proporcionó una clave decisiva para
el viejo enigma de cuál podría ser la fuente de energía de
nuestro Sol, así como de una posible relación entre los procesos
nucleares que tienen lugar en el Sol y las estrellas, y el origen de los
elementos químicos.
Pero ya antes, en la primera década del siglo 20, los
científicos habían descubierto algo más de importancia
fundamental: había algo muy especial acerca de las sustancias que
producían los procesos de desintegración radiactiva. Algunos de
esos productos de las transformaciones atómicas se parecían mucho
a los elementos que hay en la naturaleza, y no podían separarse de ellos
por medios químicos cuando estaban mezclados; sin embargo, tenían
características radiactivas muy diferentes. Por ejemplo, la sustancia que
entonces se llamaba “ionio”, que surge de la desintegración
del uranio, parecía idéntica en lo químico al torio, pero
se desintegraba en cosa de días, en tanto que la vida media del torio
natural es tan larga (más de diez mil millones de años), que
apenas podía calcularse entonces.
En 1910 Frederick Soddy sugirió que podría haber subespecies
de uno y el mismo elemento, con diferentes pesos atómicos, pero con
propiedades químicas prácticamente idénticas.
Acuñó para éstas el término
“isótopo”, que en griego significa “la misma
posición”, para dar a entender que, desde un punto de vista
químico, estas subespecies pertenecerían a la misma
posición en el sistema periódico de Mendeléiev. Pocos
años después los investigadores pudieron confirmar, por ejemplo,
que el plomo que acompaña a los minerales de uranio tiene un peso
atómico diferente al del que se encuentra en minerales de torio
natural. Así, “el plomo no es plomo”, cadenas radiactivas
diferentes terminan en diferentes isótopos de plomo.
Estos descubrimientos dejaron al descubierto la ambigüedad
extraordinaria del concepto de elemento, ¡que había sido el
fundamento entero de la química!
Para fines de los 1920, con el avance de Aston al inventar el
espectrógrafo de masas y, por tanto, el de la capacidad de medir los
pesos atómicos con una precisión mucho mayor, quedó claro
que la existencia de isótopos distintos era una propiedad ubicua de los
elementos químicos, y que prácticamente todos los elementos de la
naturaleza, fueran radiactivos o no, consistían en una mezcla de
isótopos en diferentes proporciones. Se hizo evidente que el
número de isótopos es mucho más grande que el de los
elementos, incluso el de los isótopos estables. El hierro, por ejemplo,
tiene cuatro isótopos estables conocidos; el calcio tiene seis, y el
estaño, con la marca más alta, tiene 10, todos en una abundancia
significativa en la Tierra. Es la naturaleza de los procesos de
transformación nuclear que isótopos diferentes de un mismo
elemento por lo general tengan orígenes diferentes, prehistorias diferentes en la evolución del universo.
En la actualidad se conocen unos 3.000 isótopos diferentes, la
mayoría de los cuales fueron creados por el hombre. ¡Eso corresponde
a un promedio de cerca de 30 isótopos por cada elemento! La
mayoría de éstos son de corta vida en su estado
“libre”, pero, no obstante, representan modos de existencia de la
materia realizables en nuestro mundo.
Todo esto implica añadir una nueva dimensionalidad al sistema
periódico de Mendeléiev. El descubrimiento de los isótopos
exigió una reformulación total de la química. Entonces,
¿cómo debemos conceptualizar ahora el ordenamiento de un
“sistema periódico de los isótopos” que recién
va emergiendo? La respuesta, hasta donde ha llegado ahora la ciencia,
está inseparablemente ligada a las anomalías de los pesos
atómicos.
Mendeléiev había fundado su sistema periódico en la posición o número ordinal de los elementos en el
orden ascendente de sus pesos atómicos, al usar la comparación
entre esta posición y la periodicidad de las características
químicas y cristalográficas, para corregir los errores de las
imprecisiones de medición de los pesos atómicos y determinar la
posición de los elementos “faltantes” de la serie. El reto
siguió siendo entender mejor la importancia de los valores de los propios
pesos atómicos, los cuales manifestaron tanto las regularidades como las
curiosas irregularidades. Por un lado, esos valores, sin importar las unidades
que se usaran para expresarlos, mostraban una tendencia inconfundible a formar
proporciones de números enteros. A principios del siglo 18, el
químico inglés William Prout señaló que los pesos
atómicos de los elementos parecían ser múltiplos integrales
del peso atómico del hidrógeno, el elemento más ligero, y
en eso fundó su hipótesis de que de algún modo el
hidrógeno es el bloque básico que compone a los
elementos.
Mendeléiev rechazó por principio este concepto reduccionista,
que fue refutado mediante experimento por mediciones más precisas de los
pesos atómicos. Un caso especialmente sorprendente era el cloro, que se
reconoció como elemento químico en 1820, y cuyo peso
atómico, en relación al del hidrógeno, es más o
menos de 35,5. De hecho, cuando Mendeléiev armó su tabla
periódica, listó en una aproximación muy general los
valores de los pesos atómicos para las dos primeras “octavas”
de su sistema, tal como se les conocía entonces, como sigue:
H 1
Li 7 |
Be 9,4 |
B 11 |
C 12 |
N 14 |
O 16 |
F 19 |
Na 23 |
Mg 24 |
Al 27,4 |
Si 28 |
P 31 |
S 32 |
Cl 35,5 |
¿Qué causa la mezcla de valores (casi, casi) integrales,
así como claramente no integrales, con la distribución irregular
de los “saltos” en los valores entre elementos sucesivos?
¿Significaba esto más elementos “faltantes” o incluso
nuevos grupos químicos? ¿Elementos, quizás, de una clase
diferente de la que Mendeléiev permitía?
Nuevas anomalías
Aquí, el descubrimiento de los isótopos y la medición
subsiguiente de sus pesos atómicos trajo un avance decisivo. Nació
una regularidad extraordinaria oculta hasta entonces, mientras que al mismo
tiempo surgieron nuevas anomalías que permanecen, hasta la fecha, en el
corazón de la física nuclear moderna.
Primero, se reconoció que, como los elementos que se dan en la
naturaleza son en realidad mezclas de isótopos, al tener ellos mismos
pesos atómicos diferentes, los valores previos medidos de los elementos
reflejaban una suerte de promedio de los pesos atómicos de los
isótopos correspondientes, “que se pesan” según los
porcentajes relativos de los isótopos en la mezcla. La razón del
valor de mitad integral del cloro, por ejemplo, yace en la circunstancia de que
el cloro que se encuentra en la naturaleza lo compone una mezcla de dos
isótopos, uno con peso atómico muy cercano a 35, y el otro con uno
de 37, en una proporción de aproximadamente 3 a 1.
Al comparar uno con otro los pesos atómicos de los isótopos, en vez de con los de los elementos, las grandes
divergencias con las proporciones en números enteros desaparecían
y entraba en juego un nuevo conjunto notable de relaciones.
Las relaciones de los valores de los isótopos resaltan con
más claridad cuando su referencia no es el hidrógeno, sino cierto
isótopo específico del carbono (que hoy se denomina C–12).
Cuando establecemos como unidad 1/12 del peso atómico del
carbono–12, entonces resulta que los valores numéricos de los pesos
atómicos de los isótopos conocidos varían, sin
excepción, cuando mucho una décima de los valores en
números enteros. En la mayoría de los casos la desviación
es aun mucho menor.
Así, cada isótopo puede asociarse de forma inequívoca
con cierto número entero, al que hoy se conoce como su
“número de masa”, el cual casi, casi coincide con su peso
atómico. El hidrógeno, por ejemplo, tiene en la naturaleza
isótopos con números de masa 1 y 2; el oxígeno tiene tres:
16, 17 y 18; el estaño, diez: 112, 114, 115, 116, 117, 118, 119, 120, 122
y 124; etc. Era natural esperar que donde hubiera brechas en la serie de los
números de masa, como entre el calcio–44 y el calcio–46,
debía existir un isótopo de calcio adicional con número de
masa 45, y probablemente uno inestable, pues eso explicaría su
aparente rareza en la naturaleza. Sin duda, conforme los aceleradores y luego
los reactores nucleares empezaron a producir grandes cantidades de
isótopos nuevos, muchos de esos “huecos” en la serie de los
isótopos se llenaron, y la serie vigente se amplió hacia arriba y
hacia abajo. Difícilmente podría dudarse que los isótopos
de un mismo elemento están ordenados de manera natural en la forma de
números enteros sucesivos.
Pero, entonces, surge todo un nuevo conjunto de preguntas: ¿Por
qué algunos isótopos son estables y otros no? ¿Por qué
las brechas tienden a darse más seguido con los números
impares? ¿Por qué razón algunos elementos tienen muchos
isótopos y otros muy pocos o incluso sólo uno? ¿Cuál
es la razón de ciertas pautas en la abundancia relativa de diferentes
elementos en la naturaleza, cosa que no tiene relación obvia con las
periodicidades de la tabla de Mendeléiev?
Entre tanto, la investigación de los elementos químicos en el
espectro de los rayos X —de sus frecuencias resonantes de absorción
y reemisión al irradiárseles con rayos X— aportó un
nuevo cimiento físico para el ordenamiento de Mendeléiev de los
elementos mismos, independientemente de los pesos atómicos: la serie de
frecuencias espectrales de un elemento químico dado en los rayos X,
cambia de modo gradual y por completo regular y sistemático conforme
pasamos de un elemento al que le sigue en el sistema periódico. Fue
posible predecir el espectro de rayos X de elementos aún desconocidos, e
identificarlos y descubrirlos, aun en concentraciones muy pequeñas,
mediante su diciente “sello distintivo” de rayos X. Pero el espectro
de rayos X de los isótopos de un elemento dado es casi exactamente
idéntico, al igual que su comportamiento químico.
Los isótopos y los números complejos
gaussianos
Así que los átomos en nuestro universo parecen tener una
naturaleza doble:
Primero, su identidad en tanto elementos químicos, que se
refleja en su afinidad con otros elementos con los que forman compuestos
químicos; en la clase de cristales que forman, solos o en
combinación con otros elementos; en las condiciones en las que cobran
forma sólida, líquida o gaseosa, y así sucesivamente; y en
sus espectros ópticos y de rayos X.
Segundo, su “nueva” identidad como isótopos, en
el marco de todos los descubrimientos que hemos resumido, los cuales forman el
punto de partida principal para el dominio llamado “física
nuclear”.
Por último, estos dos aspectos deben interconectarse
íntimamente, de manera que aún no se entienden como es
debido.
Queda mucho por hacer, pero sabemos que el surgimiento de la física
nuclear, en el proceso que acabamos de esbozar, ejemplifica la forma del
progreso del conocimiento humano que Bernhard Riemann describió en su
famoso documento Sobre las hipótesis en que se fundamenta la
geometría, como la generación de una multiplicidad de orden
superior de la práctica humana desde una de orden inferior, mediante la
integración de un principio físico adicional recién
descubierto.
Entonces, ¿cómo debemos representar ahora el sistema de los
isótopos que recién emerge? El enfoque más directo,
dado el surgimiento de una nueva “dimensionalidad” en el sentido de
Riemann, es el que originalmente empleó Carl Gauss en su tratamiento de
los residuos bicuadráticos. Para proyectar el efecto combinado de dos
principios ordenadores diferentes, Gauss extendió el dominio de los
números ordinarios al introducir los llamados números enteros
complejos imaginarios. El sistema de Gauss de los números enteros
complejos puede representarse en términos visuales como el de puntos en
la retícula de un plano, donde el llamado “eje real”
horizontal representa el modo de desplazamiento que corresponde a los
números ordinales, y el llamado “eje imaginario” vertical, el
desplazamiento según el nuevo principio. La relación entre los dos
principios de desplazamiento define un tercer principio.
¡Aplica esto ahora al ordenamiento de los isótopos! Piensa en
cada isótopo como si estuviera asociado con un número entero
complejo; por ejemplo, en la representación geométrica, por un
lugar geométrico específico en la retícula, de la siguiente
manera: el componente del isótopo sobre el “eje real”
horizontal debiera ser el número ordinal del elemento correspondiente en
el sistema periódico original de Mendeléiev, también
conocido como su número atómico. La “parte
imaginaria”, o sea, su componente en la dirección vertical, debiera
ser su número de masa. Así, los isótopos de un elemento
dado se ubican sobre líneas paralelas al eje vertical, a alturas que
corresponden a sus pesos atómicos, o más bien al número
entero más cercano.
Para ponerlo de modo más gráfico: el isótopo de un
elemento de número atómico Z y masa M corresponde al número
complejo gaussiano Z+iM.
Proyectar meramente los isótopos mediante números ordinales
complejos, sólo sienta una base preliminar para empezar a trabajar en
descubrir los principios físicos que subyacen en la existencia y
transformaciones de los isótopos, y en la relación entre los
procesos “químicos” y “nucleares”.
Un indicio decisivo es la pauta de discrepancias diminutas entre los
valores físicos reales de los pesos atómicos, por un lado, y los
números enteros de masa de nuestra proyección, por el otro.
¡Precisamente en esas discrepancias diminutas radica todo el potencial de
la fuerza nuclear! Son análogas a las diferencias minúsculas entre
el movimiento observado de Marte y el predicho conforme al supuesto del
movimiento circular uniforme de los planetas que le permitió a Kepler
descubrir el principio de la gravitación universal.
Por ejemplo, ¿cuál es la relación entre los pesos
atómicos de dos átomos, y el de uno que hipotéticamente
podría conformarlo cierta suerte de fusión de los dos?
Uno de los casos más simples sería combinar dos átomos
del isótopo de hidrógeno de número ordinal 1+2i (llamado
deuterio), para obtener uno del isótopo de helio 2+4i (la forma
más común del helio, el helio–4). En términos
amplios, esta idea corresponde a lo que se cree que ocurre en el Sol.
Aquí, los números ordinales complejos se suman de manera
algebraica. Pero, ¿qué hay de los pesos atómicos
reales?
El peso atómico del deuterio, a partir de una medición real,
es de 2,014102 unidades de masa, cuyo doble es 4,028204. Por otra parte, el peso
atómico de un átomo de helio–4 es 4,002603, que es
ligeramente menor que el primero por 0,025601 unidades de masa o un 0,6%.
¿Qué podría deducirse de la observación de que un
átomo de helio–4 es 0,6% más ligero que dos átomos de
deuterio tomados por separado? Si fuera posible que los átomos de
deuterio se reorganizaran ellos mismos en un átomo de helio, el resultado
implicaría una disminución neta de la masa.
De hecho, se cree que la fusión de isótopos de
hidrógeno para formar helio es la fuente principal de energía del
Sol. Las principales reacciones, que cobran la forma de una cadena, parecen ser
más complicadas que las de nuestro caso hipotético, pero comparten
una característica común: a fin de cuentas, el peso atómico
del producto o productos finales es menor que el de los reactivos.
¿Qué significa eso?
Hasta donde sabemos hoy, la respuesta general de Einstein es correcta; a
saber, que el ritmo de generación de “masa faltante” es
directamente proporcional al poder que genera la estrella. No podemos medir de
modo directo la lenta pérdida de masa del Sol, por ejemplo, pero podemos
observar la misma clase de relación proporcional de manera bastante
directa en incontables procesos radiactivos y reacciones nucleares. Eso
también se aplica a la fisión nuclear, donde la suma de las masas
de los fragmentos que genera la fisión de un núcleo de uranio es
muy ligera, pero mensurablemente más pequeña que la masa del
núcleo original. Para ser más precisos, la masa
“faltante” asciende a 0,087% de la del núcleo de
uranio.
Por ende, parece que esas discrepancias diminutas en términos de los
pesos atómicos son la clave del poder del Sol para mantener nuestra
biosfera, y la de nuestro propio poder para mantener a la población
mundial fundados en la energía nuclear en el período venidero. Y,
no obstante, tal como Kepler enfrentó la anomalía de los ligeros
“errores” en las posiciones predichas de Marte en relación
con los cálculos reduccionistas de Ptolomeo, Tico Brahe y
Copérnico —errores que sólo reflejan la existencia de un
principio superior que él luego identificó como la
gravitación universal—, así hoy necesitamos dar un salto
conceptual para descubrir los principios de una nueva física
nuclear.
Sólo señalaré, como conclusión, que las
características magnéticas de un isótopo podrían
considerarse, en cierto sentido, como el componente “imaginario” del
valor de la función de masa para el ordinal complejo correspondiente. Al
incluir la dimensión adicional de los isómeros nucleares (llamados
estados excitados de los núcleos, que tienen características
magnéticas alteradas), podemos construir una función de superficie
de Riemann más amplia para los principios en cuestión.
[1]Timeo
o de la naturaleza, Platón (edición electrónica de www.
philosophia.cl, Escuela de Filosofía de la Universidad
ARCIS).
|
|