LECTURAS | “Moda, fe y fantasía en la nueva física del universo”: Roger Penrose

24/03/2018 - 12:03 am

El prestigioso físico inglés Roger Penrose expone sus críticas sobre importantes aspectos de la física teórica actual. Importante crítica de Roger Penrose a los significativos avances de la física actual. ¿Qué influencias pueden tener la moda, la fe y la fantasía en las investigaciones científicas que buscan entender el comportamiento del universo? ¿Son los físicos teóricos inmunes a las tendencias, las creencias dogmáticas o los revoloteos fantásticos?

Ciudad de México, 24 de marzo (SinEmbargo).-Según Penrose, los investigadores trabajando en las fronteras más extremas de la física son igual de susceptibles que el resto de los seres humanos en dejarse llevar por la corriente.

No exento de polémica, el prestigioso físico inglés expone en este libro sus reservas sobre ciertos aspectos de la física teórica actual, argumentando que, por más que las modas, la fe y la fantasía pueden ser productivas e incluso esenciales en la física, hoy en día no hacen más que descarriar a los científicos que investigan en los campos más importantes de la física teórica. Así pues, Penrose aborda la teoría de cuerdas y sus generalizaciones como ejemplo de un conjunto de ideas «de moda» («fashionable») que no merecen en su opinión toda la atención (y esfuerzo humano y económico) que se les dedica, la «fe» dogmática con la que se exige que se sigan los procedimientos de la mecánica cuántica, y la «fantasía» de algunas de las ideas que han revelado las observaciones de los primerísimos estadios de la evolución del universo.

“Este libro surge a partir de la recopilación de tres conferencias que ofrecí en la Universidad de Princeton en octubre de 2003 invitado por Princeton University Press. Es muy posible que me precipitase al proponer a la editorial el título de estas tres charlas —Moda, fe y fantasía en la nueva física del universo—, que es también el título de este libro, pero expresaba genuinamente cierta desazón que sentía entonces en relación con determinadas tendencias que formaban parte del pensamiento de la época sobre las leyes físicas que rigen el universo en el que vivimos. Ha pasado más de una década, pero esas cuestiones y mucho de lo que dije sobre ellas, parecen ser, en su mayor parte, al menos tan relevantes hoy como en su día. Debo confesar que di esas conferencias con cierta aprensión, pues intentaba expresar unos puntos de vista que podrían no resultar muy acordes con los de muchos de los distinguidos expertos presentes allí.

Cada uno de los nombres que dan título a este libro, ‘moda’, ‘fe’ y ‘fantasía’, remite a una cualidad que podría parecer antagónica con los procedimientos que se suelen considerar apropiados para la búsqueda de los principios que subyacen el comportamiento del universo a sus niveles más básicos. De hecho, idealmente, sería muy razonable afirmar que influencias como las de la moda, la fe o la fantasía deberían estar por completo ausentes de la actitud mental de quienes dedican todos sus esfuerzos a la búsqueda de las bases fundamentales de nuestro universo. A fin de cuentas, no cabe duda de que la propia naturaleza no tiene mucho interés en los caprichos efímeros de las modas humanas; ni tampoco la ciencia debería entenderse como una fe, pues sus dogmas están sometidos a un escrutinio continuo y sujetos a los rigores del examen experimental, y se abandonan en el mismo momento en que surge un conflicto convincente con la realidad de la naturaleza tal y como la descubrimos. A su vez, la fantasía es sin duda el territorio de ciertas zonas de ficción y del entretenimiento, donde no se considera esencial que se preste demasiada consideración a los requisitos de coherencia con la observación, a la lógica estricta o siquiera al mero sentido común. De hecho, si se puede demostrar que una teoría científica propuesta está demasiado influida por los dictados de las modas, por el seguimiento incondicional de una fe sin base experimental o por las tentaciones románticas de la fantasía, entonces es nuestro deber poner de manifiesto dichas influencias y mantener alejado de estas a quien, quizá sin ser consciente de ello, pudiera estar expuesto a ellas.”

Fragmento del libro Moda, fe y fantasía en la nueva física del universo, de Roger Penrose, con autorización de Debate

1 MODA

1.1. La elegancia matemática como fuerza motriz

Como he mencionado en el prefacio, los temas que se tratan en este libro los desarrollé a partir de tres conferencias que di, invitado por Princeton University Press, en la Universidad de Princeton en octubre de 2003. Al dirigirme a un público tan experto como la comunidad científica de Princeton, mi nerviosismo alcanzó quizá el punto álgido cuando llegó el momento de hablar de las modas, porque el campo que había decidido utilizar como ejemplo, la teoría de cuerdas y algunas de sus derivaciones, se había desarrollado hasta su máxima expresión en Princeton probablemente más que en cualquier otro lugar del mundo. Además, se trata de un asunto muy técnico y no puedo pretender tener competencia sobre muchos de sus importantes aspectos, pues mi familiaridad con los detalles técnicos es limitada, sobre todo habida cuenta de mi condición de persona ajena a este campo. Me pareció, no obstante, que no debía permitir que esta carencia me amedrentase, pues si se considerase que solo los expertos están en condiciones de hacer comentarios críticos sobre el asunto, es probable que las críticas se limitaran a detalles relativamente técnicos, y ciertos aspectos más amplios resultarían, sin duda, en buena medida ignorados.

Desde que pronuncié estas conferencias, se han publicado tres análisis muy críticos de la teoría de cuerdas: Not Even Wrong, de Peter Woit; Las dudas de la física en el siglo XXI, de Lee Smolin, y Farewell to Reality. How Fairytale Physics Betrays the Search for Scientific Truth, de Jim Baggott. Desde luego, tanto Woit como Smolin han tenido más experiencia directa que yo de la comunidad de los teóricos de cuerdas y su condición de vanguardia de la moda. También se han publicado en este tiempo (antes que las tres obras citadas) mis críticas a la teoría de cuerdas, en el capítulo 31 y partes del 34 de El camino a la realidad, pero mis comentarios críticos eran quizá ligeramente más favorables a reconocer un papel físico a la teoría de cuerdas que esas otras obras. La mayoría de mis comentarios serán de naturaleza general, y apenas relacionados con cuestiones muy técnicas.

Permítanme decir en primer lugar algo general (y quizá evidente). Observamos que el asombroso progreso que la teoría física ha experimentado a lo largo de varios siglos ha dependido de sistemas matemáticos extremadamente precisos y sofisticados. Es evidente, por lo tanto, que cualquier avance significativo debe de nuevo depender de algún armazón matemático particular. Para que cualquier nueva teoría física que se proponga pueda mejorar lo logrado hasta el momento y haga predicciones precisas e inequívocas que superen lo que había sido posible con anterioridad, también debe estar basada en un sistema matemático bien definido. Además, cabe pensar, para que se trate de una teoría matemática aceptable debería tener sentido matemático (lo cual significa que, en efecto, debería ser matemáticamente coherente). A partir de un sistema incoherente uno podría, en principio, deducir cualquier resultado que desease.

Pero la coherencia interna es en realidad un criterio muy fuerte, y resulta que no muchas propuestas de teorías físicas —ni siquiera entre las de mayor éxito en el pasado— son en realidad internamente coherentes. A menudo, hay que apelar a sólidas consideraciones físicas para que la teoría pueda aplicarse apropiadamente de manera inequívoca. Los experimentos son también, desde luego, primordiales para una teoría física, y someter una teoría a una prueba experimental es algo muy distinto de buscar su coherencia lógica. Ambas son importantes, pero en la práctica a menudo se observa que a los físicos no les preocupa tanto alcanzar la plena coherencia matemática interna de una teoría si esta parece encajar con los hechos físicos. Así ha sucedido, en buena medida, con la mecánica cuántica, como veremos en el capítulo 2 (y en §1.3). La primerísima obra sobre este tema, la trascendental propuesta de Max Planck para explicar el espectro de frecuencias de la radiación electromagnética en equilibrio con la materia a una temperatura fija (el espectro del cuerpo negro; véanse §§2.2 y 2.11), tuvo que emplear una representación híbrida que no era realmente coherente [Pais, 2005]. Tampoco puede decirse que la vieja teoría cuántica del átomo, tan magníficamente presentada por Niels Bohr en 1913, fuese un sistema coherente. Los avances posteriores de la mecánica cuántica han permitido erigir un edificio matemático de gran sofisticación, en el que el deseo de coherencia matemática ha sido una poderosa fuerza motriz. Pero en la teoría actual aún persisten problemas de coherencia que esta no aborda debidamente, como veremos más adelante, sobre todo en §2.13. Sin embargo, es el respaldo experimental, sobre una amplia variedad de fenómenos físicos, lo que constituye el fundamento pesado de la teoría cuántica. Los físicos no suelen preocuparse demasiado por detalles de incoherencia matemá- tica u ontológica si la teoría, cuando se aplica con el debido criterio y mediante cálculos minuciosos, sigue proporcionando respuestas que concuerdan plenamente con los resultados de la observación —a menudo con una precisión extraordinaria— obtenidos a través de experimentos delicados y precisos.

La situación de la teoría de cuerdas es por completo distinta. En este caso, no parece que exista ningún resultado experimental que la respalde. Se suele argumentar que esto no es algo sorprendente, ya que la teoría de cuerdas tal y como está formulada en la actualidad, en gran medida como una teoría de la gravedad cuántica, se preocupa fundamentalmente por la llamada escala de Planck de distancias diminutas (o, al menos, por valores próximos a dichas distancias), unas 10-15 o 10-16 veces más pequeñas (10-16 significa, por supuesto, un factor de una diezmilésima de una millonésima de una millonésima parte), y por lo tanto por energías unas 1015 o 1016 veces mayores que las alcanzables en los experimentos actuales. (Debe señalarse que, según los principios básicos de la relatividad, una distancia pequeña equivale en esencia a un tiempo pequeño, mediante la velocidad de la luz, y, según los principios de la mecánica cuántica, un tiempo pequeño es básicamente equivalente a una energía grande, mediante la constante de Planck; véanse §§2.2 y 2.11.) Uno debe sin duda afrontar el hecho de que, por potentes que sean nuestros aceleradores de partículas actuales, las energías que se prevé que alcancen son muchísimo menores que las que parecen tener relevancia directa en teorías como la de cuerdas moderna que tratan de aplicar los principios de la mecánica cuántica a los fenómenos gravitatorios. Pero esta situación difícilmente puede considerarse satisfactoria para una teoría física, ya que el soporte experimental es el criterio definitivo para que esta perviva o sea desechada.

Desde luego, podría ser que estemos entrando en una nueva fase de la investigación básica en física fundamental, en la que los requisitos de coherencia matemática sean primordiales y en que, cuando dichos requisitos (junto con una coherencia con los principios establecidos previamente) resulten insuficientes, haya que recurrir a criterios adicionales de elegancia matemática. Aunque podría parecer acientífico apelar a esos ideales estéticos en una búsqueda completamente objetiva de los principios físicos que rigen el funcionamiento del universo, es llamativo lo fructíferos —esenciales, de hecho— que tales juicios estéticos han resultado ser en muchas ocasiones. En física existen muchos ejemplos en los que bellas ideas matemáticas han resultado ser la base de avances fundamentales en nuestro conocimiento. El gran físico teórico Paul Dirac [1963] fue muy claro sobre la importancia del criterio estético en su descubrimiento de la ecuación del electrón, y también en su predicción de las antipartículas. Sin duda, la ecuación de Dirac ha resultado ser absolutamente fundamental para la física básica, y su atractivo estético es muy apreciado. Lo mismo sucede con la idea de las antipartículas, derivadas del análisis profundo que el propio Dirac hizo de su ecuación del electrón.

Sin embargo, es muy difícil valorar de manera objetiva el papel del criterio estético. Es habitual que algún físico considere que un determinado sistema es muy bello mientras que otro no está en absoluto de acuerdo. En el mundo de la física teórica, igual que sucede en el arte o el diseño de ropa, las modas pueden tener una influencia desproporcionada en lo que respecta a criterios estéticos.

Debería quedar claro que la cuestión del criterio estético en física es más sutil que lo que se conoce como la navaja de Occam, la eliminación de complicaciones innecesarias. De hecho, la decisión de cuál de entre dos teorías enfrentadas es en efecto “la más sencilla”, y quizá por lo tanto la más elegante, no tiene por qué ser una cuestión evidente. Por ejemplo, ¿es la relatividad general de Einstein una teoría sencilla o no? ¿Es más sencilla o más complicada que la teoría de la gravedad de Newton? ¿O es la teoría de Einstein más sencilla o más complicada que la propuesta en 1894 por Aspeth Hall (veintiún años antes de que Einstein presentase su teoría de la relatividad general), que es como la de Newton pero en la que la ley de la inversa del cuadrado se sustituye por otra en la que la fuerza gravitatoria entre una masa M y otra masa m es GmMr –2,00000016, en lugar de GmMr–2 como en la de Newton? La teoría de Hall se proponía explicar la ligera desviación observada en el desplazamiento del perihelio del planeta Mercurio respecto a las predicciones de la teoría de Newton, algo conocido desde aproximadamente 1843. (El perihelio es el punto más cercano al Sol que un planeta alcanza mientras recorre su órbita [Roseveare, 1982].) Esta teoría también se ajustaba al movimiento de Venus ligeramente mejor que la de Newton. En cierto sentido, la teoría de Hall es solo ligeramente más complicada que la de Newton, aunque depende de cuánta complicación adicional considera uno que supone reemplazar el número “2”, fácil y sencillo, por “2,00000016”. No cabe duda de que esta sustitución implica una pérdida de elegancia matemática, pero, como ya se ha dicho, estos juicios contienen un elemento importante de subjetividad. Puede que sea más relevante el hecho de que existen ciertas propiedades matemáticas elegantes que se deducen de la ley de la inversa del cuadrado (que expresan, básicamente, la conservación de las «líneas de flujo» de la fuerza gravitatoria, algo que no sería exactamente cierto en la teoría de Hall). Pero, de nuevo, esta podría considerarse una cuestión estética cuyo significado físico no debería exagerarse.

¿Qué hay de la relatividad general de Einstein? Sin duda, a la hora de examinar en detalle las consecuencias de la teoría, su aplicación a sistemas físicos concretos resulta mucho más difícil que aplicar la teoría de Newton (o incluso la de Hall). Cuando se escriben de forma explícita, las ecuaciones son mucho más complicadas en la teoría de Einstein, e incluso es difícil hacerlo con todo detalle. Además, son enormemente más difíciles de resolver, y en la teoría de Einstein existen muchas no linealidades que no aparecen en la de Newton (que tienden a invalidar los sencillos argumentos de conservación del flujo que ya tuvo que abandonar la teoría de Hall). (Véanse §§A.4 y A.11 para el significado de linealidad, y §2.4 para su función especial en la mecánica cuántica.) Aun más grave es el hecho de que la interpretación física de la teoría de Einstein depende de la eliminación de efectos espurios que surgen al escoger unas determinadas coordenadas, a pesar de que dicha elección no debería tener ninguna relevancia en esta teoría. En términos prácticos, no cabe duda de que la teoría de Einstein suele ser mucho más difícil de manejar que la teoría gravitatoria de Newton (o incluso que la de Hall).

No obstante, en un sentido importante la teoría de Einstein es de hecho muy sencilla, quizá incluso más (o más “natural”) que la de Newton: depende de la teoría matemática de la geometría de Riemann (o, más precisamente, pseudoriemanniana, como veremos en §1.7), de 4-variedades de curvatura arbitraria (véase también §A.5). No es fácil dominar este conjunto de técnicas matemáticas, pues necesitamos entender qué es un tensor y cuál es el propósito de dichas magnitudes, y, en particular, cómo construir el objeto tensorial R, el tensor de curvatura de Riemann, a partir del tensor métrico, g, que define la geometría. A continuación, mediante una contracción y una inversión de la traza, podremos construir el tensor de Einstein, G. Sin embargo, las ideas geométricas generales en que se basa el formalismo son razonablemente fáciles de entender, y, una vez que se comprenden los ingredientes de este tipo de geometría curva, resulta que solo existe una familia muy reducida de ecuaciones posibles (o verosímiles) que sean compatibles con los requisitos generales propuestos, tanto físicos como geométricos. Entre estas posibilidades, la más sencilla de todas nos da la famosa ecuación del campo de Einstein de la relatividad general, G = 8πγT (donde T es el tensor de masa-energía de la materia y γ es la constante gravitatoria de Newton —según la propia definición de este último, de manera que ni siquiera el 8π es en realidad una complicación sino simplemente cuestión de cómo prefiramos definir γ).

Existe una pequeña —y muy sencilla— modificación de la ecuación del campo de Einstein que puede hacerse dejando intactos los requisitos esenciales del sistema, como es la inclusión de un número constante L, la denominada constante cosmológica (que Einstein introdujo en 1917 por motivos que más tarde desechó), de manera que las ecuaciones de Einstein, con L, se convierten ahora en G = 8πγT + Lg. Hoy en día, la magnitud L suele denominarse energía oscura, presumiblemente para considerar la posibilidad de generalizar la teoría de Einstein de forma que L pueda variar. Existen, no obstante, fuertes restricciones matemáticas que dificultan tales consideraciones, y en §§3.1, 3.7, 3.8 y 4.3, donde L desempeñará un papel importante para nosotros, me limitaré a analizar situaciones en las que L no varía. La constante cosmológica tendrá una relevancia considerable en el capítulo 3 (y también en §1.15). De hecho, observaciones relativamente recientes apuntan a todas luces a la presencia física real de L con un minúsculo valor positivo (en apariencia constante). La evidencia de que L > 0 —o, posiblemente, de una forma más general de energía oscura— es ahora muy impresionante y ha ido aumentando desde las observaciones iniciales de Perlmutter et al. [1999], Riess et al. [1998] y sus colaboradores, que condujeron en 2011 a la concesión del Premio Nobel de Física a Saul Perlmutter, Brian P. Schmidt y Adam G. Riess. Este L > 0 tiene relevancia inmediata solo en las escalas cosmológicas muy remotas y las observaciones de movimientos celestiales a una escala más local se pueden tratar adecuadamente según la ecuación original de Einstein, G = 8πγT, más sencilla. Se ha comprobado que esta ecuación proporciona una precisión inaudita a la hora de modelar el comportamiento de los cuerpos celestes bajo la influencia de la gravedad; el valor observado de L no tiene un efecto apreciable sobre tales dinámicas locales.

A este respecto, es de la máxima importancia histórica el sistema estelar binario PSR1913+16, uno de cuyos componentes es un púlsar que emite señales electromagnéticas con una frecuencia muy precisa que se reciben en la Tierra. El movimiento de cada estrella alrededor de la otra, al tratarse muy nítidamente de un efecto puro gravitatorio, puede modelarse mediante la relatividad general con una precisión extraordinaria que puede argumentarse que, en su conjunto, es de alrededor de 1014, acumulada a lo largo de unos cuarenta años. Este periodo de cuarenta años equivale aproximadamente a 109 segundos, por lo que una precisión de uno sobre 1014 implica una concordancia entre observación y teoría de hasta alrededor de 10−5 (una cienmilésima) de segundo en dicho periodo, que es, asombrosamente, justo el resultado que se observa. Más recientemente, otros sistemas [Kramer et al., 2006] de uno o incluso dos púlsares tienen el potencial de incrementar bastante esta precisión cuando dichos sistemas han sido observados durante un periodo de tiempo comparable al que se lleva observando PSR1913+16.

Pero afirmar que esta cifra de 1014 es una medida de la precisión experimental de la relatividad general es algo que suscita cierto debate. De hecho, las masas y los parámetros orbitales concretos deben calcularse a partir de los movimientos observados, en lugar de ser cifras procedentes de la teoría o de observaciones independientes. Además, mucha de esta precisión extraordinaria ya existe en la teoría gravitatoria de Newton.

Pero aquí nos interesan las teorías gravitatorias en su conjunto y la de Einstein incorpora las deducciones de la de Newton (que dan como resultado las órbitas elípticas de Kepler, etc.) como primera aproximación, aunque introduce varias correcciones a las órbitas keplerianas (incluido el desplazamiento del perihelio), y por último una pérdida de energía del sistema que concuerda exactamente con una notable predicción de la relatividad general: que un sistema tan masivo en movimiento acelerado debería perder energía a través de la emisión de ondas gravitatorias, ondulaciones en el espaciotiempo que constituyen el análogo gravitacional de las ondas electromagnéticas (esto es, de la luz) que los cuerpos cargados eléctricamente emiten cuando experimentan un movimiento acelerado. Constituye una asombrosa confirmación adicional de la existencia y la forma precisa de esta radiación gravitatoria el anuncio [Abbott et al., 2016] de su observación directa en el detector de ondas gravitatorias LIGO, lo que también proporciona una excelente evidencia directa de otra de las predicciones de la relatividad general: la existencia de agujeros negros, a la que volveré en §3.2 y que también trataré en apartados posteriores del capítulo 3 y en §4.3.

Debe recalcarse que esta precisión es muy superior —en un factor adicional de alrededor de 108 (es decir, de cien millones) o más— a la observacionalmente alcanzable cuando Einstein formuló su teoría gravitatoria. Se podría afirmar que la precisión observada de la teoría gravitatoria de Newton es del orden de uno sobre 107 . Por lo tanto, la precisión de “uno sobre 1014” de la relatividad general ya estaba “ahí”, en la naturaleza, antes de que Einstein formulase su teoría. Pero esa precisión adicional (de un factor de alrededor de cien millones), al desconocerla Einstein, no pudo haber tenido ninguna influencia en su formulación de la teoría. Así, este nuevo modelo matemático de la naturaleza no era una construcción artificial inventada meramente en un intento de encontrar la mejor teoría que encajase con los datos; el esquema matemático ya existía, a todas luces, en los propios entresijos de la naturaleza. Esta simplicidad —o elegancia— matemática, o como queramos describirla, forma parte verdadera mente del comportamiento de la naturaleza; no se trata tan solo de que nuestras mentes estén predispuestas a quedar impresionadas ante tal belleza matemática.

Por otra parte, cuando tratamos deliberadamente de utilizar el criterio de la belleza matemática al formular nuestras teorías, nos dejamos engañar con facilidad. La relatividad general es sin duda una teoría muy hermosa, pero ¿cómo juzga uno la elegancia de las teorías físicas en general? Personas diferentes poseen criterios estéticos muy distintos. No resulta necesariamente evidente que el punto de vista de una sobre lo que es elegante coincida con el de las demás o que el criterio estético de una persona sea superior o inferior al de otra, a la hora de formular una buena teoría física. A menudo, además, la belleza inherente a una teoría no es evidente en un primer momento y puede revelarse tiempo después, cuando avances técnicos posteriores ponen de manifiesto la profundidad de su estructura matemática. La dinámica de Newton es un buen ejemplo. Buena parte de la indudable belleza del esquema de Newton se manifestó mucho más adelante, gracias a los extraordinarios trabajos de grandes matemáticos como Euler, Lagrange, Laplace y Hamilton (de lo que dan cuenta expresiones como ecuaciones de Euler-Lagrange, operador laplaciano, lagrangianos y hamiltonianos, que son ingredientes esenciales de la teoría física moderna). La tercera ley de Newton, por ejemplo, que afirma que a toda acción se opone una reacción igual y de dirección opuesta, ocupa un lugar central en la formulación lagrangiana de la física moderna. No me sorprendería descubrir que la belleza que tan a menudo se afirma que existe en las buenas teorías modernas es en muchas ocasiones y en cierta medida algo post hoc. El propio éxito de una teoría física, tanto experimental como matemático, puede contribuir significativamente a las cualidades estéticas que se le descubren a posteriori. De todo esto cabe deducir que valorar propuestas de teorías físicas a partir de sus supuestas cualidades estéticas es seguramente problemático o ambiguo. Es sin duda más seguro formarse la opinión sobre una nueva teoría en función de su concordancia con las observaciones actuales y de su capacidad predictiva.

Aun así, en lo que se refiere al soporte experimental, con frecuencia los experimentos cruciales no son factibles, como sucede con las altas energías por completo prohibitivas que, según se dice, deberían alcanzar las diferentes partículas —extravagantemente superiores a las que logran los aceleradores de partículas actuales (véase §1.10)— para someter como es debido a la prueba del experimento cualquier teoría de la gravedad cuántica. Otras propuestas experimentales más modestas también pueden resultar igualmente irrealizables, debido quizá al coste de los experimentos o a su dificultad intrínseca. Incluso en el caso de los experimentos de mayor éxito, con mucha frecuencia sucede que los experimentadores recopilan cantidades ingentes de datos y el problema es de muy distinta índole, pues se trata entonces de extraer de ese cenagal de datos algún pedazo clave de información. Esto es desde luego así en la física de partículas, en que potentes aceleradores y colisionadores de partículas producen hoy día masas de información, y empieza a serlo también en cosmología, donde las observaciones modernas de la radiación de fondo de microondas (CMB, por sus siglas en inglés) generan enormes cantidades de datos (véanse §§3.4, 3.9 y 4.3). Muchos de estos no se consideran demasiado informativos, ya que simplemente confirman lo que ya se sabía como resultado de experimentos anteriores. Se hace necesario un monumental esfuerzo de procesamiento estadístico para extraer minúsculos residuos —la información novedosa que buscan los experimentalistas— que podrían confirmar o refutar alguna propuesta teórica.

Debería señalarse aquí que, con toda probabilidad, este procesamiento estadístico es muy específico de la teoría en cuestión y está dirigido a detectar cualquier ligero efecto adicional que esta pudiera predecir. Es muy probable que un conjunto de ideas radicalmente distintas, que se alejen de manera sustancial de las modas actuales, permanezcan sin ser sometidas a prueba aun cuando una respuesta definitiva bien podría estar oculta en los datos ya existentes, y no salga a la luz porque los procedimientos estadísticos que los físicos han adoptado están demasiado orientados hacia la teoría actual. Veremos lo que resulta ser un sorprendente ejemplo de esto en §4.3. Aun cuando está claro que podría extraerse estadísticamente información definitiva de un marasmo de datos fiables, el exorbitante tiempo de computación que esto podría requerir constituye en ocasiones una enorme barrera para la realización efectiva del análisis, en particular cuando este compite directamente con otros proyectos más en boga.

Aún más relevante es el hecho de que los propios experimentos suelen ser enormemente caros, y es probable que su diseño específico esté dirigido a comprobar teorías que no se apartan de las ideas convencionales. Cualquier sistema teórico que se aleje de forma demasiado radical del consenso general tendrá dificultades para reunir los fondos suficientes para someterse a las debidas pruebas. A fin de cuentas, un aparato experimental muy caro requiere que muchos comités de expertos establecidos aprueben su construcción y es probable que estos expertos participasen en el desarrollo de las perspectivas actuales.

En relación con este asunto podemos considerar el Gran Colisionador de Hadrones (LHC, por sus siglas en inglés) de Ginebra (Suiza), cuya construcción se completó en 2008. Está formado por un túnel de 27 kilómetros bajo dos países (Francia y Suiza) que empezó a operar en 2010. Ahora se le atribuye el descubrimiento de la hasta entonces esquiva partícula de Higgs, de gran importancia en la física de partículas, sobre todo en relación con su papel a la hora de asignar masa a las partículas que experimentan la interacción débil. El Premio Nobel de Física de 2013 se otorgó a Peter Higgs y François Englert por su contribución al innovador trabajo que predijo la existencia y las propiedades de esta partícula.

Se trata de un logro indiscutiblemente espectacular, y no tengo ninguna intención de menospreciar su indudable importancia. Sin embargo, el LHC es un ejemplo muy apropiado. La manera en que se analizan los encuentros entre partículas a muy altas energías requiere la presencia de detectores extraordinariamente caros, pensados para recabar información en relación con la teoría predominante en la física de partículas. Puede que no resulte nada fácil obtener información relevante para otras ideas no convencionales sobre la naturaleza básica de las partículas fundamentales y sus interacciones. En general, las propuestas que se alejan de manera drástica de una perspectiva dominante pueden tener muchas más dificultades para obtener una financiación adecuada, e incluso para ser sometidas a prueba mediante experimentos definitivos.

Otro factor importante es que los estudiantes de doctorado, cuando buscan un problema en el que trabajar para obtener el título, suelen estar sujetos a restricciones estrictas en cuanto a los temas de investigación que se consideran adecuados. Los estudiantes investigadores que trabajan en los campos que están menos de moda, aun cuando sus investigaciones culminen satisfactoriamente en tesis doctorales, pueden toparse con grandes dificultades para obtener después puestos académicos, por mucho que sea su talento, conocimiento u originalidad. Los puestos de trabajo son limitados y la financiación para la investigación, difícil de conseguir. La mayoría de las veces, a los directores de investigación les interesa sobre todo desarrollar ideas en cuya promoción ellos mismos han intervenido, y lo más probable es que correspondan a campos que ya estén de moda. Además, un director interesado en desarrollar una idea ajena a la corriente dominante puede ser reacio a animar a un potencial estudiante a trabajar en ese ámbito, por la desventaja que podría suponer para este a la hora de medirse posteriormente en un mercado laboral muy competitivo en el que quienes posean experiencia en campos más en boga tendrán una clara ventaja.

Los mismos problemas surgen en lo tocante a la financiación de los proyectos de investigación. Las propuestas en campos en boga tienen una probabilidad mucho más alta de recibir la aprobación (véase también §1.12). De nuevo, las propuestas serán valoradas por expertos reconocidos, que con toda probabilidad trabajan en campos que ya están de moda, y a los que ellos mismos habrán contribuido de forma significativa. Los proyectos que se desvíen mucho de las normas actualmente aceptadas, aunque estén bien pensados y sean muy originales, es harto probable que no reciban apoyo. Además, no es solo cuestión de lo limitada que sea la financiación disponible, ya que la influencia de las modas parece ser especialmente relevante en Estados Unidos, donde la disponibilidad de fondos para la investigación científica continúa siendo relativamente elevada.

Debemos mencionar, por supuesto, que la mayoría de las líneas de investigación menos en boga tendrán una probabilidad considerablemente menor de llegar a ser teorías de éxito que cualquiera de las que ya están de moda. Una perspectiva radicalmente novedosa tendrá, en la inmensa mayoría de los casos, pocas posibilidades de dar lugar a una propuesta viable. Ni que decir tiene que, como en el caso de la relatividad general de Einstein, todas estas perspectivas radicales deben de antemano concordar con lo que ya está establecido experimentalmente y, de no ser así, puede que no se necesite una cara prueba experimental para rechazar las ideas inadecuadas. Pero, para las propuestas teóricas que concuerdan con todos los experimentos previos, y para las que no existen en la actualidad perspectivas de confirmación o refutación experimental —quizá por motivos como los que se acaban de exponer—, parece que deberíamos volver a la coherencia matemática, la aplicabilidad general y criterios estéticos a la hora de juzgar la verosimilitud y relevancia de una propuesta de teoría física. Es en estas circunstancias cuando el papel de las modas puede alcanzar proporciones excesivas, por lo que debemos tener mucho cuidado de no permitir que el hecho de que una determinada teoría esté más o menos en boga nos obnubile sobre su verosimilitud física.

1.2. Algunas modas físicas del pasado

Esto es particularmente importante para las teorías que pretenden sondear los fundamentos mismos de la realidad física, como la moderna teoría de cuerdas, y debemos cuidarnos mucho de atribuir demasiada verosimilitud a tales teorías como consecuencia de su popularidad. Sin embargo, antes de tratar ideas físicas actuales, resultará instructivo mencionar algunas de las teorías científicas que fueron populares en el pasado pero que hoy en día no nos tomamos en serio. Son muy numerosas y estoy convencido de que la mayoría de los lectores sabrán muy poco de la mayor parte de ellas, por el simple motivo de que, si no nos las tomamos en serio, es muy poco probable que las estudiemos (a menos, claro está, que seamos buenos historiadores de la ciencia, lo que no es el caso de la mayoría de los físicos). Permítanme al menos mencionar unas cuantas de las más conocidas.

En particular, está la antigua teoría griega que relacionaba los sólidos platónicos con lo que entonces se consideraban los elementos básicos de la sustancia material, tal y como se representa en la figura 1-1. En ella, el fuego se representa mediante el tetraedro regular; el aire, como el octaedro; el agua, a través del icosaedro, y la tierra, como el cubo. Además, posteriormente se añadió el éter celeste (también llamado firmamento o quintaesencia), del que se suponía que estaban compuestos los cuerpos celestes, y para cuya representación se utilizó el dodecaedro regular. Parece que fueron los antiguos griegos quienes formularon este tipo de visión —o al menos muchos de ellos la suscribían—, y supongo que se podría considerar una teoría de moda en aquella época.

Al principio, solo tenían los cuatro elementos (fuego, aire, agua y…

Roger Penrose. Foto: Cortesía Debate

Roger Penrose (Inglaterra, 1931) es uno de los pensadores y matemáticos más originales y creativos de la actualidad, probablemente el físico de mayor prestigio que haya trabajado en la relatividad general desde Einstein. Sus trabajos sobre agujeros negros, gravedad cuántica y, más recientemente, la ciencia de la mente lo han convertido en una celebridad dentro del mundo científico. En 1964 entró al Birkbeck College de Londres como profesor de matemáticas aplicadas y a partir de 1973 ha ocupado la cátedra de matemáticas Rouse Ball en la Universidad de Oxford. Estudioso de los agujeros negros, inventó un sistema para cartografiar los alrededores de dichos fenómenos astrofísicos. Este tipo de mapa se denomina diagrama Penrose. También se ha dedicado a crear paradojas matemáticas, convirtiendo complicadísimas elucubraciones en ingeniosos rompecabezas. Actualmente se ha volcado al estudio de la inteligencia artificial. Ha sido distinguido, entre otros galardones, con el Wolf Prize (junto con Stephen Hawking), la Medalla de la Royal Society y el Premio Albert Einstein. De su bibliografía cabe mencionar La nueva mente del emperador (1989), La naturaleza del espacio y el tiempo (escrito en colaboración con Stephen Hawking, 1996), El camino a la realidad (2004) y Ciclos del tiempo (2010).

en Sinembargo al Aire

Opinión

Opinión en video

más leídas

más leídas