CAOS Y ORDEN
DE
ANTONIO ESCOHOTADO
Uno de los autores más lúcidos de nuestro panorama cultural y cuyas obras deberían ser obligatorias en todos los niveles de Enseñanza, incluso para enseñar a leer a los niños.
EL
LOTE DE LA INTUICIÓN
ANEXO
LOS
FRUTOS DEL PURO CALCULO
Vivimos
por obra y gracia de la invención. Anticipando la existencia de
cierta partícula es urgente encontrarla, o desmentir la
anticipación, y menos urgente -por no decir en segundo plano-
aquello que movió a postular ese nuevo ser. mientras físicos
teóricos y experimentales disputan sobre su existencia efectiva se
aplaza lo inquietante en sí, el hecho de que la realidad se retoca
para defender ciertas ecuaciones.
«No
me satisface comenta Einstein a Born en 1953- la idea de poseer una
maquinaria que permita profetizar, pero a la que no somos capaces de
conferir un sentido claro»22. Desde esas palabras, escritas hace
medio siglo, no se ha producido una interpretación de la mecánica
cuántica aceptable para quienes la cultivan: sencillamente, no hay
acuerdo en las conclusiones 23. Buena parte de la responsabilidad es
atribuible a progresos en la observación de lo inmenso y lo
minúsculo. Obligada a atender datos procedentes de ambos dominios,
esa mecánica certifica una escisión entre micro y macrocosmos, que
sucesivas generaciones se esforzarán -hasta hoy en vano- por salvar
con una teoría unificada de campos.
22
Einstein-Born, 1982, pág. 230. '' Cfr. Laloe, 1990, pág. 175.
El
microcosmos obedece al criterio del cuanto y sus saltos, sujeto a
mera probabilidad; el mundo visible se suponía ligado al
determinismo de la mecánica newtoniana, con las correcciones allí
introducidas por la relatividad. Curiosamente, también cabe decir lo
opuesto: que la mecánica cuántica es determinista en su dominio de
lo muy pequeño, y que la probabilidad corresponde al comportamiento
de los objetos mayores, gobernados por la teoría clásica.
Un
físico podría poner en duda tal escisión, afirmando que la
mecánica cuántica ha servido para abordar temas del macrocosmos.
Pero hay una coincidencia casi unánime en considerar que esa
mecánica resulta defectuosa para lo macroscópico. Por si fuera
poco, media un abismo entre la última explicación del mundo -la que
Einstein ofrece como una incurvación del espacio/ tiempo
proporcional a la cantidad de material energía y los modelos que se
ligan a matrices, números cuánticos y otra parafernalia
calculística. Tan banal como negar algunas ventajas de la
cuantificación sería negar que ignora, por sistema, cualquier
diferencia entre mundo físico y mediciones. De ahí que entre el
universo visible y el no visible siga sin haber tránsito, aunque
cualquier ser vivo pase fluidamente desde lo microscópico a lo
macroscópico, y lo pequeño y lo grande pertenezcan a un mismo
universo.
Esta
heterogeneidad en el seno de una homogeneidad acontece justamente
cuando materia y energía se han mostrado convertibles y, por tanto,
cuando ninguna ley de las llamadas fundamentales puede considerarse
esencialmente correcta. Más aún, acontece cuando la producción de
altas energías en laboratorio ha permitido descomponer el viejo
átomo en muchísimas «partículas»,y las técnicas de observación
inventan sensores de sutileza asombrosa, mostrando un rico juego de
interacciones entre ellas.
1
Parecía
maduro el momento para no seguir atribuyendo el monopolio de lo real
a leyes. En otras palabras, para reanudar un diálogo entre el
espíritu newtoniano y el aristotélico, cuyo núcleo es la physis
que va inventándose y que, por lo mismo, resulta
tan
impermeable a adivinaciones y exactitud como afín a lo cualitativo.
Y eso acabarían haciendo, en efecto, el estudio de fenómenos como
el desequilibrio termodinámico o las matemáticas de lo complejo.
Pero la física fundamental estaba resuelta a descubrir los ladrillos
últimos de la materia, y combinando grandes medios con eximios
calculistas alimentó la paradoja: al buscar lo simple por
excelencia, la partícula final, abrió un escenario de filigranas
bizantinas, con legiones de partículas aspirantes a ladrillos
últimos y ningún hilo que ofreciese conceptos unitarios.
Violaba
así una venerable regla de economía lógica (la «navaja de
Occam))), en cuya virtud la oscuridad de un proceso jamás
desaparecerá multiplicando la cantidad de sus agentes. Primero los
cientos de seres exóticos trataron de reunirse bajo el modelo
llamado estándar, cuya virtud era ((mantener un excelente acuerdo
con la observación». Sin embargo, a despecho de ese excelente
acuerdo, la construcción: a) maneja unas seis docenas de partículas
llamadas elementales; b) utiliza más de una docena de constantes
arbitrarias e incalculables; c) no incluye la gravitación; d) no
trata los demás campos de modo unificado 24. Su talón de Aquiles
son frecuentes divergencias -resultados infinitamente grandes, o
ambiguos, de sus propias ecuaciones-, que suprime por el
procedimiento llamado «renormalizacióm, donde los productos
desairados se evitan multiplicando por un factor y sumando una
constante, usando términos proporcionales a las potencias de cierta
cantidad o con alguna cosmética análoga.
24
Sobre la historia de las partículas elementales, cfr. Glashow, 1994,
y Gell-Mann, 1995.
Sintiéndose
a disgusto dentro de una teoría tan escasamente teórica -tan
parecida a una lista de ingredientes con pretensiones de balance,
pero con demasiados retoques arbitrarios del contable-, el modelo
estándar quiso revisarse con la llamada «teoría de la gran
unificación» o modelo SU(3). No obstante, ese constructo: a)
incluye todavía más partículas distintas como ladrillos
«últimos»;
b) eleva aún más el número de constantes arbitrarias e
incalculables; c) sigue dejando fuera el campo gravitatorio;
d)
solo trata unificadamente los demás campos considerándolos
sometidos a condiciones hipotéticas (tan imposibles de observar
cuanto que suponen a veces temperaturas superiores a las producidas
por una nova). De ((gran unificación » apenas tiene el nombre, y lo
vagamente parecido allí a una estructura no viene de las propias
cosas examinadas, sino de una rama de la matemática pura conocida
como grupos de Lie, cuyo objeto son modos simétricos de combinar
conjuntos.
El
desasosiego ante lo incompleto, abstracto y poco elegante de ambos
modelos suscitó la actual ortodoxia, conocida como cromodinámica
cuántica, que se basa en ladrillos últimos de los ladrillos
últimos, también denominados quarks. El número creciente de
partículas elementales producía bochorno, y postular de nuevo unos
elementos (ahora sí) absolutamente últimos pareció una tabla de
salvación. A diferencia de otras subparticulas, los quarks obedecen
leyes que les hacen inobservables por completo, sugiriendo a una
eminencia en este campo que su inobservabilidad es la forma que tiene
la naturaleza de decirnos que hemos llegado al final de la
búsqueda»25.( Glashow, 1994, cap. 11.)
Pero
la cromodinámica cuántica no solo parte de unos simples dudosamente
simples, y sin duda hipotéticos: a) sigue dejando fuera el campo
gravitatorio; 6) sigue utilizando constantes arbitrarias; c) sigue
postulando cosas dudosas -por ejemplo, que los quarks deben darse en
familias completas- para disponer de un modelo manejable; d) sigue
demandando un número ridículamente grande de partículas -61 para
ser exactos- a fin de cuadrar sus cálculos; y e) sigue sin rozar el
problema específico de la física fundamental, que es el origen de
la masa. El barroquismo que hereda del modelo estándar y la
(supuesta) gran unificación se complementa aquí con mundano humor,
ya que los hiperelementales quarks (18 en total) obedecen a tres
colores, dos sabores, una extrañeza y un encanto. Eso sí, son
colores, sabores, extrañezas y encantos cuánticos, cuya virtud es
no parecerse en nada a los que conocemos por experiencia 26.
2
Esta
escueta reseña sugiere hasta qué punto una actividad profetizante
puede cumplirse sin rozar una explicación o sentido de lo
profetizado. Cabría añadir que en tiempos recientes el indivisible
e inobservable quark ha tratado de subdividirse en nuevas ristras de
cosas simplicísimas (rishones, estratones, preones,
maones,
dyones ...).
En
realidad, la inflación de partículas y subpartículas perfila un
círculo vicioso: las falsas estructuras («todos» meramente
analíticos, iguales a la suma de sus partes) colapsan en busca de un
verdadero fundamento, que al no serlo vuelve a colapsar en otro y
otro. El signo de su incompletitud es que cada substrato se va
presentando como sencillez final, aunque en vez de esa sencillez
final -algo causante de sí mismo- ofrezca catálogos de numerosas
cosas no ya distintas sino sueltas, en su mayoría perfectamente
inútiles para dar cuenta de lo que llamamos materia.
'He
ahí un caso de extensión analógica inverso al que denuncian Sokal
y Bricmont (véase I,2), donde no es el lego quien usa abusivamente
el idioma del especialista, sino el especialista quien usa
abusivamente la jerga del lego.
Lo
llamativo, sin embargo, no es que los esfuerzos fracasen por ahora,
pues como dijo Hölderlin: mucho que sentir, y pocas certezas, forman
en buena medida nuestra suerte)). Lo llamativo es que estos modelos
-tan defectuosos hasta para sus propios inventores-alardeen de
«funcionan) con niveles muy altos de precisión. ?Cómo hallar
discrepancia entre un sistema de mediciones en cadena y las
mediciones mismas? De hecho, las evoluciones de la física
fundamental no acaban de explicarse sin recordar que el presupuesto
de sus experimentos ha ido aumentando vertiginosamente.
Tras
unos primeros años llenos de resultados espléndidos, con
experimentos que no costaban prácticamente nada, cualquier conjetura
sobre el comportamiento de una partícula exótica requiere hoy
equipos formados por cientos de especialistas con grado doctoral,
miles de operarios y aceleradores capaces de producir billones de
electrovoltios, que exigen inversiones no menos billonarias en papel
moneda. Para averiguar, por ejemplo, si existe o no el llamado bosón
de Higgs (a quien algunos atribuyen nada menos que el origen de la
masa en todas las partículas) procede construir una mole con forma
de rosquilla, cinco metros de diámetro y una longitud de 70
kilómetros, desembolsando aproximadamente cuatro mil millones de
dólares 27; hace poco, el Congreso norteamericano revocó su
decisión de apoyar las obras iniciadas en Tejas para poner en marcha
un aparato levemente más modesto, el llamado
Supercolisionador/Superconductor (SSC), y una amalgama sindical de
constructores y físicos nobelizados -Steven Weinberg, Carlo Rubbia,
Abdus Salam- denuncia desde entonces ese sabotaje a la ciencia, que
según Gell-Mann '' Cfr. Glashow, 1996, pág. 363. ) representa (un
conspicuo revés para la civilización humana» 28. En las
alegaciones presentadas ante el Congreso, las empresas constructoras
mencionaron también el valor ornamental de tales obras, aduciendo
que los imperios ilustres legaron a la posteridad grandes monumentos,
y los supercolisionadores podrían competir sin desdoro con las
pirámides de Egipto o la Gran Muralla china.
No hay comentarios:
Publicar un comentario