La preocupación por conocer la estructura de la materia no es nueva. Muchas culturas de la antigüedad mostraron gran interés por descubrir aquello que subyace al mundo manifestado. Una de las disyuntivas que siempre se barajó es si la materia era finita y contaba con elementos constitutivos primordiales o si por el contrario era algo continuo e ilimitado y el hombre podía considerarse suspendido entre dos abismos, el de lo infinitamente pequeño y el de lo infinitamente grande.

Leucipo y Demócrito de Abdera fundaron la escuela atomista en el siglo V a.C., y sus escritos representan el primer testimonio que se conoce de la existencia de los átomos. Demócrito nos habla de los átomos como elementos constitutivos de la materia,  indivisibles, invisibles por la pequeñez de su masa, cuyas diferencias no son cualitativas sino sólo en su forma y magnitud. Los átomos determinarían el nacimiento y la muerte de las cosas mediante su unión y disgregación,  y la diversidad y el cambio de las cosas mediante su orden y posición.

Esta noción estuvo olvidada durante muchos siglos por la predominancia de las ideas de Aristóteles quien afirmaba que la materia era continua, y como tal, podía dividirse ad infinitum.

Fue Dalton quien rescató este concepto de los átomos en 1803 porque explicaba las proporciones definidas que ocurrían en las reacciones químicas. Por ejemplo, para formar 44 gramos de dióxido de carbono (CO2) se necesitan 12 gramos de carbono por cada 32 gramos de oxígeno, y esto es debido a que por un lado los pesos del carbono y oxígeno respectivamente son 12 y 16, y por otro lado se unen dos átomos de oxígeno por cada uno de carbono. La materia estaba por tanto compuesta por partículas elementales y las reacciones químicas eran intercambios entre esas partículas. Desde entonces, poco a poco se fue imponiendo la idea de su existencia, considerándose partículas últimas de la naturaleza e indivisibles, de ahí su nombre, a-tomos, sin partes.

Sin embargo, a finales del XIX con el descubrimiento de la radiactividad natural por Becquerel y los estudios subsiguientes llevados a cabo por Marie Curie, se vio que los distintos átomos debían guardar alguna relación entre sí, ya que se estaba dando la transmutación de los elementos de que hablaban los alquimistas medievales, y los elementos radiactivos se desintegraban en otros elementos con propiedades químicas distintas.

Conforme se iban descubriendo nuevos elementos, los cimientos de la materia se hacían más numerosos, existiendo casi un centenar de componentes diferentes a partir de los cuales la naturaleza producía toda su diversidad. La progresiva complejidad se simplificó al descubrir el protón, electrón y neutrón, los tres componentes básicos de todos los átomos, por más distintos que parezcan. Esto significa que los elementos de la tabla periódica se diferencian unos de otros únicamente en el número de protones y electrones que poseen, y los elementos radiactivos se convierten en otros distintos al perder algunos de estos protones y electrones.

Thompson fue el primero en intuir que el átomo estaba compuesto por otras partículas elementales, descubriendo una de ellas, el electrón. Pero como todavía se creía que la materia tenía consistencia, su modelo atómico era compacto, como si fuese una tarta de nueces y pasas, donde tanto nueces como pasas, es decir, protones y electrones, estaban juntos.

Es ya un clásico de la Física el experimento de Rutherford, quien bombardeó láminas de oro con rayos de partículas alfa (protones) provenientes de material radiactivo. Lo que él vio es que no todos los rayos atravesaban las láminas de oro, sino que algunos se desviaban y otros incluso retrocedían. Para Rutherford fue la cosa más increíble que le había sucedido nunca. Él mismo dijo: «Es como si disparando proyectiles de unos 400 mm a través de un papel, algunos rebotasen».

Apoyándose en los datos aportados por este experimento, confeccionó un modelo del átomo en el que como si se tratase de un sistema solar, los electrones orbitaban alrededor del núcleo donde estaban los protones, dejando una inmensidad de vacío entre ambos. Así quedaba explicado el hecho de que las pocas veces en que las partículas alfa pasasen cerca o chocasen contra los núcleos fuesen repelidas, por interacción electrostática entre protones.

Esta representación planetaria del átomo ha perdurado, pero su interpretación física ha sido radicalmente modificada. Las leyes clásicas de Newton no podían explicar cómo se mantenían orbitando estos electrones a la vez que emitían radiación electromagnética, por tanto hubo que desarrollar toda una concepción matemática nueva, que fue llevada a cabo por hombres como Bohr, de Broglie, Heisemberg, Schrodinger, Pauli y Dirac, y en donde se introdujo el concepto de discontinuidad aportado por Planck en 1900 y desarrollado por Einstein en 1905.

La física de finales del siglo XIX creía que había llegado a explicar todo el mundo físico conocido, salvando algunos fenómenos que como la excepción de toda regla seguían sin tener aclaración. El universo constaba de una mezcla de materia y radicación. La materia, compuesta de partículas, se explicaba por las leyes de Newton y la radiación, de naturaleza ondulatoria, seguía las leyes de Clark Maxwell, el científico que unificó la electricidad y el magnetismo. Tal era la confianza en esa visión del mundo que Maxwell mismo afirmó: «En unos pocos años habremos determinado con una buena aproximación las grandes constantes de la física, y la única ocupación de los hombres de ciencia será delimitar más las mediciones añadiendo un nuevo decimal».

Entre los fenómenos que las teorías existentes no explicaban se encontraba la radiación de un cuerpo negro, es decir, la relación existente entre la temperatura que alcanza un cuerpo al aportarle calor y la cantidad de radiación emitida. Se suponía que a mayor temperatura, mayor cantidad de energía emitida, pero los resultados no encajaban con esa suposición. Max Planck consiguió establecer una fórmula que lo explicaba pero para ello tuvo que asumir que la energía se trasmitía en forma de paquetes diminutos, que él llamó cuantos, y que equivalen a 6,626 x10-34 julios / segundo, lo que desde entonces se conoce como constante de Planck. Como muchos científicos antes que él, que creían que la Tierra era el centro del universo y consideraban el sistema heliocéntrico como un simple recurso para facilitar los cálculos matemáticos, o aquellos que consideraban la existencia de las moléculas como algo irreal, que sólo servía para explicar las leyes de las combinaciones químicas, pero que no formaban parte de la estructura de la materia, también Planck renegó de la idea de la discontinuidad de la energía que él mismo había creado, y pasó muchos años intentando recalcular las fórmulas para eliminar esa constante.

Fue Albert Einstein quien definitivamente demostró que los cuantos tenían una realidad como tal, durante la investigación del efecto fotoeléctrico. Tampoco en este caso se sabía por qué el choque de la luz con un metal provocaba que se desprendiesen electrones, sin que hubiese una correlación clara entre la intensidad de la luz y los electrones arrancados, es decir, el voltaje detectado. Se observaba que había longitudes de onda largas, esto es, radiación infrarroja, donde no se soltaban electrones, y otras más cortas, radiación ultravioleta, donde se desprendían muchos, de manera independiente a la intensidad de esa luz. Si, como se creía, se trataba de la interacción de una onda con la materia, debía ocurrir algo parecido a lo que sucede cuando una ola de mar llega a la orilla y arrastra las pequeñas piedras de la playa. Por tanto, olas más grandes (más intensas) desplazarán más las piedras. Lo que sucedía es que las olas más grandes desplazaban más cantidad de piedras, pero todas hasta el mismo sitio, sin llevarlas más lejos. Y eso era muy intrigante. Tras reflexionar sobre el fenómeno, Einstein demostró, no que la energía de la luz se trasmitía de forma discontinua, sino que ella misma  era discontinua, es decir, que la luz estaba compuesta de pequeñas partículas llamadas desde entonces fotones. Para que la luz arrancase más electrones no se trataba de hacer que las ondas tuviesen más intensidad, sino cambiar la frecuencia de las mismas, ya que los fotones de mayores frecuencias tienen más energía, mientras que a mayor intensidad de luz, hay más fotones pero todos poseen la misma energía.

Con los descubrimientos de Einstein la perplejidad de la comunidad científica fue en aumento: la luz no sólo era discontinua sino que además era a la vez una onda y una partícula.

La representación del átomo se enriqueció con esta idea de discontinuidad, y así el modelo que propuso Bohr en 1913 introducía órbitas estacionarias, es decir, los electrones no podía estar en cualquier sitio sino sólo en unas zonas determinadas, en donde estaban estables y no emitían energía, siendo el paso de una órbita a otra lo que provocaba que se dieran los fenómenos radiantes. De Broglie fue más allá al ampliar la idea de la dualidad onda/partícula a la materia. Si la luz que es una onda se comporta a veces como una partícula, ¿por qué no suponer que protones y electrones que son partículas puedan comportarse también como ondas? Efectivamente así fue. Los experimentos le dieron la razón. Y a partir de esta concepción, Schrödinger creó la interpretación matemática que explicaba este hecho, donde las órbitas pasaban a ser nubes de densidad electrónica, u ondas de la probabilidad de encontrar al electrón.

A pesar de la deslocalización, la posición de un electrón en un átomo puede ser acotada, y viene definida por tres números llamados cuánticos (n, l, m) que se derivan de la ecuación de Schrödinger, y por el espín (s), un concepto que mide el impulso angular interno del electrón y que puede tomar únicamente dos valores, ½ y -½. Sólo le faltaba a Pauli enunciar su principio de exclusión, y a Heisenberg su principio de indeterminación para que los fundamentos de la física atómica estuviesen definidos.

El principio de exclusión dice que en un átomo no puede haber dos electrones con los mismos números cuánticos, esto es, ocupando la misma área, y que aunque un orbital puede albergar dos electrones, éstos deben tener espines opuestos.

El principio de indeterminación por su parte dice que es imposible determinar simultáneamente de un modo preciso dos magnitudes complementarias, por ejemplo la posición y la velocidad de movimiento, no por problemas con los aparatos de medida, sino que se trataría de una característica intrínseca al mundo atómico. Por tanto, no tiene sentido hablar de órbitas electrónicas, porque no se puede conocer al mismo tiempo la posición y velocidad de un electrón, que es lo que define una trayectoria. Por ejemplo, para determinar la posición de un electrón deberíamos utilizar luz de longitud de onda corta, que no produce fenómenos de difracción, pero al ser de alta frecuencia le aportará al electrón parte de su alta energía con lo que su velocidad quedará indeterminada. Si empleamos longitud de onda larga, la cantidad de movimiento del electrón no cambia, pero se producen fenómenos de difracción y queda indeterminada la posición del electrón.

Poco a poco, gracias a los experimentos llevados a cabo en grandes instalaciones que lo que provocan es la aceleración de partículas, se fue viendo que las partículas elementales no eran tales, y que existen nuevas partículas subatómicas, como componentes básicos del átomo. La nueva estructuración significa una nueva vuelta hacia la complejidad. Sin embargo, con la reciente atención que se le está otorgando a la teoría de las supercuerdas se aprecia un regreso hacia la idea de una gran simplicidad de la materia, abogando por una única sustancia, o «cuerda» como su componente exclusivo, que simplemente tendría diferentes modos de vibración.

La Física actual ya no considera como algo separado materia y energía, por tanto su clasificación de las partículas incluye aquellas con masa, que nosotros consideraríamos materiales (llamadas fermiones, en honor a Enrico Fermi) y aquellas que no tienen masa sino que tan sólo transmiten fuerzas y que para nosotros son algo irreal, más bien «entes virtuales» (llamadas bosones, en recuerdo de Satyendranath Bose).

Los fermiones se dividen en leptones y quarks. El nombre de leptón deriva del griego y significa «delgado» haciendo referencia a su poca masa, mientras que el término quark procede de un pasaje de la novela de James Joyce, El despertar de Finnegan, en un intento de su descubridor por buscar denominaciones originales. Mientras que los leptones se encuentran aislados, los quarks aparecen siempre unidos formando pares o tríadas.

Hay seis tipos de leptones, llamados electrón (e), neutrino del electrón (ne), muon (m), neutrino del muon (nm), tauon (t) y neutrino del tauon (nt),  siendo los más estables el electrón y el neutrino del electrón. Los quarks, que de manera simbólica se consideran «sabores», se denominan en inglés up (u), down (d), charm (c), strange (s), top (t) y bottom (b), y además se subdividen cada uno de ellos en función de su carga de «color», en rojo, verde y azul, si bien dicha denominación es una vez más metafórica. Los quarks estables en la naturaleza son el up y el down, constituyentes de protones y neutrones.

Por si esto fuera poco, todas las partículas tienen su antipartícula, en presencia de la cual se desintegran, y además de la «nada» pueden surgir nuevas partículas. Por ejemplo rayos gamma de alta energía pueden dar nacimiento a un electrón y un positrón, así que la conversión de masa en energía y viceversa en el mundo de lo pequeño es un hecho frecuente.

Otro concepto que amplió sus significados con la llegada de la física atómica fue la definición de fuerza. Mientras que para la física newtoniana la fuerza es toda causa capaz de producir deformaciones sobre un cuerpo, ponerlo en movimiento o cambiar su velocidad, a nivel atómico se convirtió en la causa de todo cambio, reacción, creación o desintegración. Así, se empezó a hablar de interacciones más que de fuerzas, estableciéndose las cuatro fundamentales:

      Interacción gravitatoria: la menos intensa de todas, conforma las estrellas, planetas y galaxias.

      Interacción nuclear débil: la más difícil de comprender, causante de la conversión de un neutrón en un protón y viceversa. Afecta a los neutrinos.

      Interacción electromagnética: responsable de las combinaciones químicas, de los enlaces y la formación de moléculas. Al igual que la gravitatoria, es de largo alcance, disminuyendo con el cuadrado de la distancia.

      Interacción nuclear fuerte: responsable de la existencia de los núcleos de los átomos.

Estas fuerzas se trasmiten gracias a los bosones, de los que existen distintos tipos:

     Fotón: transmite la fuerza electromagnética, es decir, la interacción entre partículas cargadas.

     Gluón: transmite la fuerza fuerte o cromodinámica, que es la interacción entre los quarks, partículas con carga de color.

     Weakon: transmite la fuerza débil relacionada con la desintegración y emisión de partículas desde núcleos de átomos.

     Gravitón: transmite la fuerza de gravedad. Esta partícula todavía no se ha aislado.

        

Tanto las partículas subatómicas como las fuerzas, a excepción de la gravedad, se incluyen dentro de un  modelo físico llamado Modelo Estándar.

Hasta ahora, se han descubierto más de un centenar de partículas diferentes en los aceleradores y su número va en aumento. De nuevo los científicos sienten que es una cifra demasiado grande como para formar el basamento de la Realidad.

La teoría de las supercuerdas se perfila por tanto como esperanza de encontrar la  sencillez perdida. Es una teoría que combina la relatividad y la física cuántica de un modo elegante e intuitivo. En vez de considerar la fuerza como intercambio de partículas la explica como una propiedad del espacio. Entiende la realidad de una forma geométrica y considera la existencia de una única sustancia, la supercuerda, con un tamaño de 10-33 cm, que se «transforma» en todo el espectro de partículas conocidas según sea su modo de vibración. Además esta teoría consigue explicar la gravedad: cuando la supercuerda se mueve en el espacio y en el tiempo, separándose y reuniéndose con otras cuerdas, fuerza al espaciotiempo que lo rodea a curvarse, tal como las ecuaciones de Einstein predicen. Sus inconvenientes son que no puede demostrarse la existencia de las cuerdas debido a su pequeño tamaño (el radio de un núcleo atómico, que mide 10-13 cm, es inmensamente grande en comparación) y que establece la existencia de once dimensiones en vez de las cuatro que conocemos. Para explicar adonde fueron a parar las restantes dimensiones, se postula que en el momento del Big Bang siete de las once dimensiones se doblaron y colapsaron mientras que las otras cuatro se expandieron rápidamente. De alguna manera nuestro universo se expandió a expensas de un universo paralelo que se redujo a nivel microscópico.

A la vista de los avances de la física atómica podemos afirmar que la materia ha perdido la consistencia que tenía. Ya no es algo sólido, algo que se pueda medir, pesar, tocar, ni siquiera es algo que se pueda transformar en energía, como la famosa fórmula de Einstein nos dice, sino que ella misma es pura energía. La definición matemática de las partículas subatómicas conocidas implica que no es que estén hechas de energía sino que SON energía. Ahora más que nunca recordamos esa idea de Maya que mencionan los hindúes, de la ilusión de los sentidos, del juego engañoso del universo manifestado, que se transforma continuamente y no tiene una REALIDAD verdadera. El Misterio ha vuelto a hacer aparición…

Utilizamos cookies para asegurar que damos la mejor experiencia al usuario en nuestra página web. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies.