Reseña histórica sobre la Física Nuclear

En este artículo se presenta una breve introducción histórica de los orígenes y primeros pasos de la Física Nuclear. No es, desde luego, el objetivo hacer un repaso exhaustivo del desarrollo de la Física Nuclear sino más bien establecer sus avances más notables a lo largo del siglo XX.

 


1. Introducción

 

El desarrollo de la Física desde sus inicios se puede entender como una secuencia en orden creciente de energías de interacción y una secuencia en orden decreciente de distancias entre partículas interactuantes. Así, la mecánica Newtoniana trata básicamente con partículas muy separadas (p.e. planetas-planetas, manzanas-planetas) sometidas a una interacción débil como es la gravitatoria. En un paso siguiente se entra en los dominios de la Química, donde las interacciones moleculares se extienden a distancias varios ordenes de magnitud más pequeñas que en el caso anterior y las energías implicadas son varios ordenes de magnitud mayores. Aquí la interacción más relevante es la electromagnética que, bajo formas complejas, da lugar a interacciones del tipo Van der Waals. Con el descubrimiento del electrón (J.J. Thomson, 1895) se entra en una nueva etapa en la que la interacción electromagnética se muestra en todo su esplendor en la interacción entre los electrones y los núcleos, de nuevo un salto a mayores energías y a menores escalas de distancias. El salto siguiente se da con el descubrimiento por James Chadwick del neutrón (1932) e inmediatamente la introducción de una nueva interacción fundamental, responsable de mantener a protones y neutrones ligados en una zona muy reducida del espacio, mucho más fuerte que la electromagnética y, por ello, denominada interacción fuerte. Se suele considerar esta fecha como el nacimiento de la Física Nuclear. Algunos autores fijan el nacimiento de la Física Nuclear no en estas fechas sino anteriormente, a finales del siglo XIX, con el descubrimiento de la radioactividad. Puede considerarse así, pero desde luego no se avanzó mucho en el entendimiento de la estructura del núcleo hasta el descubrimiento de Chadwick. El último salto cualitativo se produce con la introducción del modelo de quarks (Murray Gell-Mann, 1964) para describir la estructura interna de los nucleones, de nuevo escalas de distancias más cortas y energías más grandes. En cada uno de estos saltos cualitativos han jugado un papel fundamental los desarrollos tecnológicos que han ido permitiendo  conseguir en el laboratorio energías cada vez mayores y, por tanto, explorar escalas de distancias cada vez más pequeñas.

 

Si nos detenemos un poco en nuestra materia de estudio, la Física Nuclear, debemos considerar que tenemos un sistema físico con energías características del orden del MeV (1 MeV=1.6 x10-13 J) y distancias del orden del femtometro o Fermi (1 fm = 10-5 m). Así que hasta que los desarrollos tecnológicos no permitieron, con la introducción de los primeros aceleradores electrostáticos, alcanzar esas energías alrededor del año 1930 no se pudo empezar a obtener una espectroscopía nuclear suficiente para empezar a modelar el concepto de núcleo atómico.

 

2. El átomo y su núcleo

 

El primer modelo atómico data de finales del siglo XIX cuando J.J. Thomson introdujo su célebre “pastel de pasas” en el que no aparecía un núcleo atómico como tal. El primero en introducirlo con las dimensiones más o menos apropiadas fue E. Rutherford tras analizar en 1911 su famoso experimento de dispersión de partículas a por finas láminas de oro. En el modelo atómico de Rutherford toda la carga positiva estaba concentrada en una zona central muy pequeña del átomo, denominada núcleo, de radio una diezmilésima del radio total del átomo. Sin embargo, no se entendía la estabilidad del átomo ya que el electromagnetismo predecía que un sistema como el propuesto (cargas positivas en el centro y negativas a su alrededor) colapsaría debido a la interacción coulombiana. Hubo que esperar hasta el desarrollo formal de la Mecánica Cuántica a mediados de los años 20 para resolver estos problemas.

 

Pero antes del experimento de Rutherford, a finales del siglo XIX los estudios sobre las propiedades químicas de los elementos conocidos habían llevado a la introducción de dos números que caracterizaban al sistema atómico: la masa atómica (A) y el número atómico (Z). De las medidas de las masas atómicas W. Prout indujo que todas ellas eran múltiplos casi exactos de la masa del Hidrógeno de forma que, de un modo natural, asignaron masa atómica 1 al Hidrógeno con lo que la masa atómica de un elemento era el número de veces que su masa contenía a la del H. Esta idea no tiene mucho sentido aplicada al átomo completo pero era buena aproximación para el núcleo atómico, aún desconocido como tal. Por otra parte, el número atómico fue introducido por A. Mendeleev al ordenar los elementos por su peso atómico y escribirlos en forma de tabla. La posición de un elemento en la tabla era su número atómico. También observó que el número atómico de un elemento era  aproximadamente la mitad de su masa atómica. Así las cosas, a primeros del siglo XX el problema nuclear presentaba tres facetas básicamente: (i) su tamaño, (ii) sus constituyentes básicos (que no podían ser sólo protones pues eso no encajaba con los números Z y A medidos) y (iii) la naturaleza de la interacción que daba lugar al agrupamiento de partículas cargadas positivamente en una zona muy reducida del espacio. El punto (i) fue resuelto por Rutherford en 1911. En relación al punto (ii), el hecho de que ya se hubiera  detectado radiación beta, radiación que se sabía provenía directamente del núcleo, y su identificación con electrones, llevó de nuevo a la idea generalizada de que en el núcleo coexistían protones y electrones. Así un núcleo con numero másico A y número atómico Z, tendría A cargas positivas y Z electrones. La introducción de la Mecánica Cuántica con todo su formalismo y el principio de indeterminación de Heisenberg en los años 20 condujo inexcusablemente a la convicción de que a electrones confinados en una zona del espacio de unos pocos Fermi correspondía una energía cinética que excedía con mucho las energías de ligadura nucleares. A ello se unieron las mediciones de los espines de algunos núcleos que mostraron, en el caso más paradigmático, que el 14N tenía espín entero 1 (en unidades de la constante de Planck dividida por 2p). En la interpretación del núcleo con protones y electrones, el 14N tenía 14 protones y 7 electrones, es decir 21 partículas de espín semientero 1/2 (en unidades de la constante de Planck dividida por 2p), y consecuentemente le correspondería un espín total semientero en desacuerdo con lo medido experimentalmente. Todo ello llevó a abandonar la idea de que en el núcleo había electrones, aunque Rutherford mantuvo la idea modificándola. Propuso que en el núcleo un electrón  formaba un ente neutro fuertemente ligado con un protón. Tras varios años de búsqueda, James Chadwick descubrió en 1932 la emisión de partículas neutras muy energéticas en la producción de 12C al bombardear 9Be con partículas a. Chadwick identificó esas partículas con los entes propuestos por Rutherford y las denominó neutrones. La imagen de un núcleo atómico compuesto por protones y neutrones (nucleones) emergió entonces de un modo natural, encajando entonces las nociones y observaciones experimentales de número atómico y masa atómica. Resueltos los problemas del tamaño y los constituyentes del núcleo atómico, aún quedaban por entender el origen de las emisiones b (electrones que eran emitidos por el núcleo) y la naturaleza de la interacción entre nucleones (punto iii anterior). Enrico Fermi resolvió el primer problema desarrollando su hermosa teoría de la desintegración b en 1934 e introduciendo un nuevo tipo de interacción, denominada débil por ser mucho menor que la interacción entre nucleones en el núcleo. La emisión b provenía de la transformación de un neutrón dentro del núcleo, éste se convertía en un protón y se emitían un electrón y una partícula nueva denominada antineutrino. Con ello, casi todos los observables relacionados con el núcleo tenían su fundamento teórico, pero faltaba la forma matemática para la interacción nuclear. Éste es un problema aún abierto, aunque se ha trabajado intensamente para clarificarlo y se han dado pasos importantes todavía parece lejano el día en que se conozca en detalle la interacción nuclear. Mientras tanto los físicos nucleares han desarrollado modelos que representan esquemáticamente al núcleo.

 

3. Los modelos nucleares

 

Los experimentos sobre dispersión de protones, neutrones y partículas por núcleos a principios de los años 30 dieron lugar a descubrimientos de enorme importancia sobre la estructura nuclear. En 1934 Curie y Joliot descubren la radioactividad artificial, muchos elementos estables se convertían en isótopos radiactivos al ser bombardeados con partículas a. Poco después, Fermi, Amaldi, Pontecorvo, Rosetti y Segré demuestran que los neutrones térmicos eran muy efectivos en el proceso de desintegración de núcleos y en el proceso de absorción selectiva (resonancia). Con ello, se sientan los primeros fundamentos de la reacción en cadena en la que se fundamentan las bombas atómicas y el funcionamiento de las centrales nucleares. El mismo año se descubre la fotodesintegración del deuterón. Con todos estos hechos, Bohr formula en 1938 su teoría cualitativa del núcleo compuesto. Este modelo da en cierto modo, un nuevo enfoque a la Física Nuclear. De hecho, a partir de ese momento surgen numerosos estudios sobre reacciones nucleares: la teoría estadística de Weisskopf, la teoría unificada de procesos de dispersión y absorción de partículas por núcleos desarrollada por Feshbach, Peaslee y Weisskopf, y muy en particular, la explicación del mecanismo de fisión nuclear (descubierto en 1938 por Hahn y Strassmann) que dan Bohr y Wheeler, basándose en el modelo de la gota líquida para describir el núcleo compuesto. Este modelo es el primer representante de los denominados modelos colectivos fenomenológicos. En ellos se considera que la propia fuerza nuclear es capaz de producir fuertes correlaciones entre los nucleones, lo cual da lugar a fenómenos colectivos. El modelo de la gota líquida permite  además, una interpretación sencilla e intuitiva de la fórmula semiempírica de masas de Bethe y Weizsacker que permite calcular teóricamente en muy buena aproximación las masas de todos los núcleos.

 

Los modelos nucleares colectivos tienen  gran éxito durante muchos años. A pesar de ello seguía existiendo el problema fundamental de cómo compaginar dichos modelos con la descripción microscópica de partícula independiente moviéndose en un potencial, que había introducido Heisenberg. Durante algunos años, los éxitos de los modelos colectivos, junto a la dificultad conceptual que supone la existencia de un  campo central en el núcleo, hace que se abandone en buena medida la idea de movimiento independiente. A finales de los años 40 aparecen los primeros trabajos de Mayer y Jensen. En ellos muestran que la secuencia de números mágicos (número de protones o neutrones que hacen a los núcleos especialmente estables) es debida a la existencia de un potencial central con una fuerte interacción espín-órbita. El modelo de capas de Mayer y Jensen reproduce además muchos datos experimentales sobre espines, momentos magnéticos y líneas espectrales. A pesar de todo ello, el modelo no es aceptado en un principio con facilidad. Las razones se deben, por una parte, a la dificultad de compaginar la interacción fuerte nucleón-nucleón de corto alcance con la idea de un potencial central promedio común a todos los nucleones, por otra parte, está el término de interacción espín-órbita sobre el cual, hasta entonces, no se tenía ninguna evidencia experimental. Se dedica a partir de ese momento, un enorme esfuerzo a fundamentar la validez (fenomenológicamente demostrada) del modelo de capas. Es en este contexto donde debe enmarcarse la teoría de Brueckner y la ecuación de Bethe-Goldstone. La interacción efectiva que surge al tener en cuenta los efectos de muchos cuerpos, posee un comportamiento suave incluso a distancias muy cortas, a diferencia de lo que sucede para potenciales de core duro. Esta interacción efectiva puede entonces usarse para calcular de forma autoconsistente el potencial promedio a un cuerpo. El método de Brueckner Hartree Fock (BHF), que consiste en usar la interacción efectiva solución de la ecuación de Bethe-Goldstone en las ecuaciones de Hartree-Fock, da una descripción microscópica fundamental de las propiedades estáticas del núcleo. Una aproximación, que ha resultado muy importante para el caso de núcleos finitos, ha sido la aproximación de densidad local. Consiste en suponer que la interacción efectiva en cualquier parte del núcleo es la misma que la correspondiente a materia nuclear a la misma densidad. Esta aproximación, introducida originalmente por Brueckner, fue utilizada con éxito por Negele en los años 70. Finalmente, durante estos últimos años se han ido introduciendo diversas interacciones efectivas fenomenológicas (entre las cuales pueden señalarse las de Skyrme, Gogni...) que reproducen muy bien energías de ligadura, radios y densidades nucleares.

 

Así pues, en la actualidad el modelo de capas nuclear no sólo tiene una sólida base fenomenológica sino también teórica. La fuerte correlación entre los nucleones se manifiesta en primera instancia en la generación de un potencial promedio común. Este hecho además, muestra la compatibilidad y complementariedad entre la imagen colectiva y de partícula independiente del núcleo. En este sentido, debe mencionarse el trabajo original de Rainwater, que mostró, a nivel fenomenológico, que al conjugar ambos tipos de modelos nucleares la forma estable de algunos núcleos podía ser no esférica. Poco tiempo después en 1953, A. Bohr y B. Mottelson formulan su modelo unificado en el cual los modos colectivos vibracionales y rotacionales de los núcleos vienen dados en términos del potencial nuclear promedio. La hipótesis de la equivalencia entre la forma del potencial y la forma de la densidad nuclear resultó ser crucial. La densidad podía ser calculada a partir del potencial teniendo en cuenta efectos de capas. El modelo de Nilsson, desarrollado en 1955, y posteriormente propuesto por A. Bohr para el llenado de capas de núcleos deformados, fue un paso importante en la conjugación de los modelos colectivos y de partícula independiente. Otro hecho que también puso claramente de manifiesto la complementariedad entre ambas descripciones del núcleo fue en el estudio de la fisión nuclear. La existencia de una doble barrera de fisión en algunos núcleos no podía ser explicada por el modelo de la gota líquida, la extensión de dicho modelo por el procedimiento de Strutinsky para incluir efectos de capas, permitió obtener una primera solución a dicho problema.

 

Los primeros análisis microscópicos de  parámetros colectivos se realizan a finales de los años 50 con la  introducción de dos modelos, el de Inglis o Cranking para el caso de rotaciones y las aproximaciones de Tamm-Dancoff (TD) y de fases aleatorias (RPA) para el caso de vibraciones. Ambos modelos han encontrado  posteriormente justificación teórica en la aproximación de campo medio dependiente del tiempo (TDHF), y en el marco más amplio del método de coordenadas generatrices (GCM). Una hipótesis que resultó fundamental para la correcta estimación de los parámetros colectivos, fue la de apareamiento (los nucleones tienden a estabilizar más el núcleo cuando se mueven correlacionados por pares), cuya base fenomenológica son las diferencias de energía entre núcleos par-par, par-impar e impar-impar. El tratamiento de las correlaciones de apareamiento mediante la teoría BCS, condujo a resultados muy satisfactorios. La inclusión de dichas correlaciones en la teoría de Hartree-Fock se realizó mediante el concepto de cuasi-partículas, concepto desarrollado inicialmente por Bogolyubov. En este sentido es importante señalar también, la introducción del número cuántico de seniority para representar el número de partículas no acopladas por pares a momento angular nulo.

 

El problema de las correlaciones a dos (o más) cuerpos ha seguido fundamentalmente dos caminos: de una parte, la diagonalización de interacciones residuales usando determinantes de Slater, y de otra, el uso de funciones de onda correlacionadas de tipo Jastrow. En el primer método, se tienen en cuenta esencialmente efectos de correlaciones de largo alcance con objeto de mejorar sustancialmente la descripción de niveles de energía. En el segundo método, se hace uso del método variacional, partiendo de funciones de onda que incluyen explícitamente una parametrización más o menos fenomenológica para la correlación de corto alcance.

 

El último de los modelos colectivos que ha tenido amplia repercusión en la comunidad de físicos nucleares ha sido el Modelo de Bosones en Interacción (IBM) de Iachello y Arima, que tiene su origen en mitad de la década de los setenta. Este modelo aparece como una truncación del modelo de capas para el estudio de los estados colectivos de más baja energía en núcleos medios y pesados. En él se tienen en cuenta sólo los nucleones de valencia, se limita el espacio restringiéndose a acoplamientos por pares a momentos angulares cero y dos y, por último, se considera a esos pares de fermiones como bosones. El IBM aparece así como un puente entre el modelo de capas y los modelos colectivos. La interpretación microscópica de los parámetros del modelo es un tema de investigación aún abierto.

 

4. Potenciales de interacción nucleón-nucleón.

 

A pesar de que los modelos nucleares mencionados en la sección anterior han mostrado ampliamente su utilidad desde un punto de vista fenomenológico, es una aspiración intelectual entender desde un punto de vista fundamental cómo se genera la interacción nuclear. Los primeros pasos en ese sentido se dieron en 1947, cuando Bowell y colaboradores descubren experimentalmente la existencia de mesón pi cargado o pión p+. Tres años después, en 1950, se obtiene evidencia del pión neutro. El hecho de que el inverso de la masa del pión coincidiese con el alcance de la interacción fuerte, hace que la teoría mesónica de la interacción nuclear  se acepte rápidamente, e inspira los trabajos posteriores sobre la formulación teórica de principios básicos de la interacción fuerte. Sin embargo, este problema continúa aún hoy sin tener solución satisfactoria. Los potenciales más recientes de intercambio de un pión, de intercambio  de dos piones, un mesón r, w,... explican la interacción de largo y medio  alcance; la deducción teórica de la parte de corto alcance sigue siendo, por el contrario, un problema abierto. Éste es uno de los temas en los que actualmente se está trabajando con más intensidad. Aunque aún en fase bastante preliminar, las teorías de campo gauge para quarks y gluones podrían explicar en un futuro la interacción nucleón-nucleón.

 

Desde un punto de vista más fenomenológico, el análisis de los desfasajes en el proceso de dispersión nucleón-nucleón ha permitido obtener parametrizaciones fenomenológicas del potencial internucleónico. Estos potenciales presentan un gran número de parámetros y contienen tanto términos atractivos como repulsivos. Algunos ejemplos conocidos son el potencial de Hamada-Johnston con un core duro y el de Reid de core blando. Debe mencionarse que, a pesar de la enorme resistencia que se produce a la introducción de potenciales infinitamente repulsivos a cortas distancias (core duro), los trabajos de Jastrow en los años 50 demuestran la necesidad de incluir a nivel fenomenológico tal tipo de potenciales. Recientemente se han obtenido nuevos potenciales nucleón-nucleón más sofisticados y capaces de reproducir mejor los datos experimentales. Podemos señalar entre ellos, los de Urbana, Argonne, Paris y Bonn.

 

5. Resumen

En resumen, desde los primeros años 30, a medida que la espectroscopía nuclear fue  proporcionando más y más datos empezaron a fallar los primeros modelos nucleares propuestos. Habría de esperarse hasta finales de la década de los 40 para que apareciera un modelo sólido. En 1949 se propone el Modelo Nuclear de Capas  y en 1953 el Modelo Colectivo que supusieron un gran avance en el entendimiento de la estructura nuclear. Antes, a finales de lo 30 y principios de los 40, el descubrimiento de la fisión nuclear y la producción de los primeros elementos  transuránicos abrieron el camino de aplicación paralela de los estudios básicos que se estaban llevando a cabo. Las bombas y las  centrales nucleares fueron consecuencia inmediata de ese transvase entre  ciencia básica y aplicada que nunca antes se había producido con tanta  fluidez. Transvase que no sólo tuvo su reflejo en esos aspectos sino que también dio lugar al nacimiento de la Resonancia Magnética Nuclear, de los métodos de datación y otros muchos que hoy en día forman parte de nuestra vida cotidiana. A partir de la década de los 40 con el descubrimiento  del mesón p y la posibilidad de alcanzar energías cada vez mayores con los desarrollos tecnológicos implementados en los  aceleradores de partículas, el interés sobre los constituyentes fundamentales de la materia se desplazó a escalas más pequeñas de distancias y más grandes de energías de interacción dando lugar al nacimiento de la Física de Partículas elementales. Desde la década de los cincuenta la Física Nuclear ya no ocupa un puesto central en la búsqueda de los entes básicos que componen la materia. Sin embargo,  los experimentos con núcleos y sus estudios teóricos continúan contribuyendo al esclarecimiento de las interacciones básicas por una parte y proporcionando avances tecnológicos que benefician a la sociedad en su conjunto por otra.

 

Epílogo

Por último, señalar que el núcleo atómico representa desde el punto de vista puramente científico un problema apasionante por ser un sistema físico muy diferente a otros conocidos. Para empezar, en el núcleo coexisten los cuatro tipos de interacciones fundamentales conocidas (aunque la gravitatoria es ciertamente despreciable). En segundo lugar, la forma de la interacción nuclear es desconocida aún hoy en día, aunque se conocen muchos detalles sobre ella. En tercer lugar, no hay un centro de fuerzas que genere un campo central como en el caso atómico. Además, el núcleo atómico está formado por un número medio de partículas (típicamente del orden de 100), de forma que no es posible hacer un tratamiento exacto incluso con una interacción esquemática y tampoco se pueden aplicar los métodos de la Mecánica Estadística de un modo fiable. En consecuencia, la Física Nuclear ha necesitado desarrollar métodos específicos que, en muchos casos, han sido posteriormente exportados y explotados en otras ramas de la Física. Por todo ello, la Física Nuclear proporciona un campo de formación excelente para jóvenes y brillantes investigadores.

  

 

José M. Arias, Departamento de Física Atómica, Molecular y Nuclear.

 Facultad de Física, Universidad de Sevilla.