miércoles, 16 de agosto de 2017

Sobre el sesgo psicológico de la supremacía moral

Donald Trump condenó ayer “el despliegue de odio y la violencia de las diversas partes” en los disturbios registrados en Charlottesville (Virginia)


Hace unos días se produjo el estado de emergencia en Virginia (EEUU) por los enfrentamientos tras una marcha nazi. El caos se apoderó de la ciudad de Charlottesville con violentos choques entre supremacistas y antifascistas. Todos esperaban la respuesta de los mandatarios políticos, y  se reprocha en general la ambigua postura del presidente Donald Trump al respecto, el cual ha tachado los hechos de actos de violencia desde ambos lados (desde "las diversas partes").

Muchos son los que rechazan esta postura del presidente americano, puesto que supone de facto igualar el tipo de violencia ejercido por los antifascitas a la de los nazis y supremacistas blancos, pero yo sinceramente creo que las personas que ven mal esta (en apariencia) neutral postura de Trump, sufren ellos mismos de lo que se puede entender como el mal de la supremacía moral.

Y es que en realidad en este asunto, como en casi todo en el mundo, lo que es lo "mismo" o no (en este caso el tipo de violencia) es relativo al punto de vista desde el que se mire. Las personas tienden siempre a formar grupos con ideas similares y se sienten luego muy identificadas dentro de esa comunidad. Estas agrupaciones establecen fronteras a veces físicas (formando países, estados, etc.) y a veces meramente ideológicas (política, religión, etc.). Pero sea como sea siempre existe de base la defensa conjunta de un mismo interés común. Y es la existencia y la diferencia (de intereses) de estos grupos y comunidades las que dan luego en general pie al conflicto y a la lucha (junto con su inexorable violencia). Pero debe quedar claro que dentro de estos conflictos, lo que está "bien" o está "mal" depende del bando en que nos encontremos como sujetos: es decir, de la propuesta que más nos interese creer.

Así pues, OBJETIVAMENTE es indiscutible que lo que hubo el otro día fue un conflicto social violento con dos bandos bien diferenciados (y con actos violentos por ambas partes), pero SUBJETIVAMENTE es evidente que para ningún bando fue lo "mismo" una violencia que la otra. Cada individuo verá como siempre su lucha personal (y la de su grupo -la de "los suyos" como diría Carlos Castrodeza-) más digna y noble que la postura contraria.

Así pues nadie sentirá jamás como sujeto (en ningún conflicto social habido o por haber) que su violencia es la "misma" que la del contrario, porque cada uno mira el asunto de manera relativa a sus creencias (e intereses) como persona. Pero debe quedar claro que objetivamente es una necedad negar que lo que ocurrió en casos como los de Virginia fue simple y llanamente una lucha igualmente violenta entre dos creencias encontradas.

Yo, por ejemplo, detesto como persona el pensamiento Nazi y racista, pero comprendo (e incluso acepto) que otras personas se puedan sentir identificadas con esos ideales por mucho que vayan en contra de los míos (y de mis intereses). Es decir, que no voy nunca a pretender idealizar mis creencias, ni a pretender colocarlas (moralmente) por encima de la de los demás, porque eso supondría tanto como colocarme a mí mismo por encima del resto de personas que no concuerdan con mi forma de pensar. Por contra, dentro de cada conflicto grupal intentaré siempre entender que existen necesariamente posturas que van reñidas y que se engloban dentro de unos intereses encontrados para las personas que participan de cada agrupación; pero que por lo demás son posturas siempre igualmente válidas una vez vistas de manera neutral (objetiva) dentro del marco de lucha de intereses en que se mueve la humanidad desde que el primer hombre piso la Tierra.

Y aunque luego lucharé como todos (como persona que soy) por la postura que más me interese creer y defender, eso jamás me hará colocar mi visión moralmente por encima de la visión de nadie, porque objetivamente es evidente que eso no tiene ningún sentido ni soporte empírico. Lo Bueno y lo Malo (con mayúsculas) son conceptos imaginados e idealizados por cada sujeto, y por lo tanto son relativos a su forma de pensar; mientras que de manera objetiva Natural sabemos que no tiene sentido alguno hablar en términos absolutos y Universales en este asunto. Por lo tanto, todo aquel que se crea o se sienta en un puesto privilegiado donde sus ideas (y la de los suyos) son más dignas o morales que las de los demás, simple y llanamente sufre un sesgo psicológico que bien podría denominarse el sesgo del supremacista moral.

Un saludo, compañeros.

domingo, 6 de agosto de 2017

La Termodinámica de la vida: física, cosmología, ecología y evolución (Dorion Sagan, Eric D. Schneider)

La energía es la única vida.
(William Blake)

Negar la sucesión temporal, negar el yo, negar el universo astronómico, son
desesperaciones aparentes y consuelos secretos. Nuestro destino […] no es
espantoso por irreal; es espantoso porque es irreversible [...]. El tiempo es
la sustancia de que estoy hecho. El tiempo es un rio que me arrebata, pero
yo soy el río; es un tigre que me destroza, pero yo soy el tigre; es un fuego
que me consume, pero yo soy el fuego. El mundo, desgraciadamente, es real.
(Jorge Luis Borges, Otras inquisiciones)



Me gustaría en esta entrada transcribir la introducción del maravilloso libro La Termodinámica de la vida: física, cosmología, ecología y evolución, escrito por los grandes divulgadores científicos Dorion Sagan y Eric D. Schneider. Este libro ha sido un (tardío) descubrimiento por mi parte, pero describe de una manera maravillosa gran parte de lo que he venido defendiendo personalmente en este blog durante hace ya más de cinco años.

Ha sido muy agradable conocer que no estoy "tan solo" como pensaba en esta visión del mundo, y que entre mis compañeros de ideas se encuentran personas de tan alta capacidad intelectual. Es muy probable además que hayan sido este tipo de trabajos los que estén incitado e inspirando la actual investigación en sistemas lejos del equilibrio térmico y su relación con la complejidad y la vida (valga de ejemplo el trabajo actual del físico Jeremy England).

Así pues os dejo a continuación con la introducción del citado libro (que podéis descargar completo en PDF desde aquí):

Prefacio

Cuando encendemos una vela, la llama crece; pero pronto se instala
en un estado estacionario, y se mantiene encendida mientras quede me-
cha y cera. La vida es un fenómeno similar: una combustión controlada,
un flujo de energía estructurado. Esto es más que una analogía. En efecto,
los animales obtienen su energía de la reacción del oxígeno con com—
puestos ricos en hidrógeno, del mismo modo que la llama de una vela se
mantiene "viva" siempre que haya oxígeno para la combustión de la cera
rica en hidrógeno. Por supuesto, hay diferencias fundamentales. Para em-
pezar, los organismos "queman" su combustible a temperaturas mucho
más bajas, y este "fuego" implica no sólo el mantenimiento de una es-
tructura concreta durante un tiempo relativamente corto, sino la reproduc-
ción de su forma y función antes de extinguirse (por culpa de un accidente
fatal o el inevitable deterioro). La vida, como el fuego, se propaga. Sin
embargo, a diferencia de las llamas, los organismos vivos se reproducen.
Y, puesto que varían en su reproducción (que nunca es un proceso per—
fecto) y no todas las variantes sobreviven, la vida evoluciona También
exhibe, en conjunto, una suerte de prudencia, que le ha permitido mante—
nerse durante más de 3500 millones de años, en lugar de arder como un
fugaz meteorito en la noche. Las formas de vida demasiado glotonas ago—
tan sus fuentes de energía y deciinan, mientras que las dotadas de inteli-
gencia natural para racionar sus recursos o explotar otros nuevos quizá
no brillen como una estrella fugaz, pero sobreviven. Se estima que la
gran explosión, el big bang, que dio origen al universo, se produjo hace
15.000 millones de años. La vida tiene alrededor de un tercio de esa edad.
Como escribió, con licencia poética, Joseph Brodsky, estamos más cerca
de la gran explosión que de Roma. Si buscamos nuestros orígenes en las
transformaciones naturales, en el ciclo de la materia asociado al flujo de
energía, no hace falta ninguna licencia poética para dar la razón a Brodsky.
La ciencia que desarrollaremos en este libro trata de la energía y sus trans-
formaciones en los sistemas complejos.

15

La ciencia en cuestión es una amalgama situada en la frontera entre
dos importantes disciplinas modernas, la física y la biología. Es posible
que el lector ni siquiera haya oido hablar de ella, o que, si lo ha hecho,
sólo la conozca en su forma general y en relación con su principio más
famoso, la segunda ley de la termodinámica.

La termodinámica ——ciencia que se ocupa del flujo de energía, cuya
denominación procede de los términos griegos que designan el calor y el
movimiento— comenzó con el estudio de las máquinas de vapor. Pero la
disciplina de la que tratamos aquí es, al menos a primera vista, más es-
pecializada. Estudia la manera en que los flujos de energía dan lugar a
estructuras complejas, es decir, aquellas estructuras que parecen diferen-
ciarse de su entorno, en las que se producen ciclos internos de los flui-
dos, gases y líquidos de que están compuestas, y que tienden a cambiar
y crecer. Tales estructuras, como cualquiera puede reconocer, incluyen a
los seres vivos, por lo que esta ciencia es conocida como "termodinámica
de la vida". Sin embargo, no sólo comprende la vida, ya que virtualmente
se ocupa de todas las estructuras complejas naturales, desde los remolinos
hasta los obreros de la construcción. En virtud de los sistemas de flujo que
parecen autoorganizarse 0 que, milagrosamente, están de hecho organiza—
dos por los flujos de su entorno, a los que están abiertos y conectados, tam-
bién se emplea el nombre de "termodinámica de sistemas abiertos". Por
si fuera poco, técnicamente la termodinámica de sistemas abiertos es más
conocida por la imponente denominación de "termodinámica del no equi-
librio", porque los sistemas que centran su interés, esto es, los centros de
flujo, crecimiento y cambio, no son estáticos ni inertes, sino que se apar—
tan del equilibrio termodinámico. Para emplear un término menos en—
gorroso (y, de este modo, integrarlo en nuestro propio flujo narrativo), nos
referiremos a la termodinámica del no equilibrio con las siglas TNE,
siempre que la ocasión lo permita.

Históricamente, la TNE es una ampliación de la termodinámica tra-
dicional, que se ocupaba de sistemas relativamente simples. Sin embargo,
puesto que los sistemas estudiados por la TNE están abiertos al flujo de
energía, puede afirmarse que la ciencia más básica y general es la TNE,
no la termodinámica del equilibrio. Después de todo, se interesa por sis-
temas que son la norma en el universo, no la excepción. El universo es
un lugar complejo, y sus sistemas más comunes e interesantes, incluida
la vida, son sistemas abiertos. Sellémoslos, enclaustrémoslos, y se ven—
drán abajo. Somos una pauta material particular de flujo de energía, con
una larga historia y una función natural. Nuestra naturaleza esencial tie—
ne más que ver con el cosmos y sus leyes que con Roma (o cualquier otra
sociedad humana) y sus reglas.

16

La materia de la vida, sus átomos de carbono y oxígeno, se forjó en
los núcleos de estrellas que luego explotaron, en un proceso de reciclado
más viejo que el Sol. Pero la vida no es sólo materia: también es un pro—
ceso. Como Kant observó con perspicacia, un organismo es "a la vez
causa y efecto de si mismo".[ Esto lo convierte en algo diferente a cual-
quier otra cosa en el universo; literalmente, en algo más centrado en si
mismo. Las razones de este hecho, y del origen mismo de la vida, pue-
den retrotraerse a los flujos de energía de un universo energético, muy
probablemente una Tierra de hierro fundido, acribillada y caliente, en
cuya superficie estallaban burbujas de azufre y silbaban chorros de vapor
de agua.2 Resulta verosímil pensar que fue en esta caldera donde evolu-
cionaron las primeras maquinarias de copiar naturales, que al principio
no eran unas virtuosas de la reproducción como lo son las mariposas y
abejas que podemos ver actualmente En lo más profundo de los ciclos
bioquímicos de las bacterias actuales, existen vías metabólicas, reliquias
químicas, que repiten, con mayor o menor variación, los pasos que siguió
la materia hasta cobrar vida.3 El reciente descubrimiento de ecosistemas
abisales que no se sustentan de luz o materia orgánica, sino de energía
química, sugiere, de un modo tan paradójico como poético, que el origen
de la vida hay que buscarlo en el fuego y el azufre —como corroboran,
asimismo, los experimentos que demuestran que en tales clausuras ener—
géticas es posible sintetizar aminoácidos y péptidos.

El descubrimiento de bacterias resistentes al calor y capaces de ali-
mentarse de compuestos de azufre en el fondo del océano y en el interior
de las rocas —bacterias agrupadas por el criterio de secuencias comunes de
ARN ribosómico— nos revela un escenario en el que la materia, rica
en energía, se mantiene y produce más de si misma antes de que los ge-
nes evolucionen. Si la vida dependiese únicamente de los genes, y hubiera
evolucionado en primera instancia como ARN o ADN, nunca habría dado
lugar a cuerpos complejos que retardan la replicación genética. Los cuer-
pos e identidades considerados vivos derivan de ciclos complejos de
transformación de energía, que sólo más tarde desarrollaron genes4 Sin
ánimo alguno de desmerecer las grandes intuiciones de la biología evo-
lutiva, esperamos que este libro contribuya a ampliar la visión científica
de la vida más allá de su estrecho enfoque como fenómeno meramente
genético. La vida exhibe procesos direccionales, como la expansión, el
incremento de taxones o el consumo creciente de energía, difíciles de
conciliar con la teoría predominante, que la reduce a un proceso básica-
mente aleatorio. El incremento evolutivo de la complejidad de la vida
(véase el capítulo 17) que tiende a ser arrinconado por no tener cabida en
la teoría evolutiva ortodoxa, adquiere sentido cuando se considera la vida

17

junto con otros sistemas naturales de flujo de energía. Pese a no ser gené-
ticos, estos "sistemas hermanos" revelan pautas características del flujo de
energía, incluyendo el incremento de tamaño y complejidad con el paso
del tiempo. En el fondo, la vida debe contemplarse como una cuestión
tanto de transformación energética como de replicación genética.

En rigor, el término es inadecuado: vida es un sustantivo, mientras
que el fenómeno al que se refiere es un proceso Y el término en sí mismo
es vitalista: cuando empleamos la palabra vida, creemos saber de qué es—
tamos hablando, pero lo cierto es que a menudo no hacemos más que
aplicar una etiqueta con la que categorizamos el fenómeno, en lugar de
exarninarlo de cerca. Desde el punto de vista evolutivo, el proceso que
llamamos vida no es estable. Con el paso del tiempo, cada vez más ele-
mentos y compuestos químicos se van incorporando al extraño proceso
cíclico de transformación energética, hasta llegar a hoy, cuando no sólo
ADN y proteínas, sino también plásticos, metales e isótopos radiactivos
recorren el globo en un torbellino cada vez más frenético, poderoso y pe—
ligroso.“ A medida que la vida acapara y pone en juego más energía, in-
crementa sus capacidades, sus potenciales de crecimiento y destrucción,
así como de percepción y autorreflexión. Formas exquisitas que canalizan
la energía para el crecimiento (fermentación, metanogénesis, fotosíntesis
purpúrea basada en el azufre en lugar del agua) evolucionaron miles de
millones de años antes de que los seres humanos comenzaran a explotar
la riqueza natural de la madera, el carbón y el petróleo. Estas tendencias,
que nos parecen misteriosas cuando interpretamos la vida como un pro—
ceso mecánico, adquieren sentido cuando consideramos la vida como un
sistema abierto integrado en el flujo de energía. Siempre ha existido una
relación entre energía y riqueza, energía y vida, energía y exuberancia. Las
economías, las reacciones químicas, los ecosistemas y los sistemas sola-
res se organizan en tomo a gradientes energéticos, diferencias naturales de
temperatura, presión y potencial químico que establecen las condiciones
para el flujo de energía. Los genes constituyen una parte fascinante de una
más amplia, la de los flujos de energía que organizan las totalidades en las
que los genes están inmersos, y a las que, en última instancia, están su-
bordinados. Incluso los objetos inanimados (los "organismos de la física",
como se les ha llamado) comienzan a individualizarse en regiones de flujo
de energía. Estas agregaciones inducidas exhiben coherencia, complejidad
y, en algunos casos, tendencia a reproducirse. Observarlas de cerca arroja
luz sobre procesos diversos, desde el metabolismo y la memoria hasta la
economía y la búsqueda de formas de vida ultraterrenas.

18

En la primera parte de este libro, "Lo energético", seguimos el desarro-
llo de la termodinámica basada en gradientes desde sus humildes comien-
zos, cuando se realizaban observaciones de objetos calientes inevitable-
mente enfriados. Comenzamos nuestro primer capítulo con Schródinger,
cuyo librito ¿Qué es la vida? tuvo una influencia capital en Watson y
Crick, los descubridores de la estructura helicoidal del ADN. Schródinger
acentúa dos cuestiones: la presencia en la vida de un "código químico"
(cuya sede resultaron ser los ácidos nucleicos) y la capacidad de la vida
para concentrarse en una "corriente de orden", 10 cual permite refrenar la
tendencia universal de las cosas a descomponerse, a caer en la aleatorie—
dad termodinámica y el caos atómico.

Es esta segunda cuestión la que nos interesa aquí, aunque no es el
asunto principal del libro de Schródinger, y éste se equivocó en uno de
sus aspectos esenciales. La capacidad de la vida para automantenerse, ex—
pandirse y reproducirse en un mundo sometido a la segunda ley de la ter-
modinámica es una paradoja, que se explica por el hecho de que los se—
res vivos, sistemas abiertos y dependientes de la energía de la luz o las
reacciones químicas, liberan calor y otros desechos termodinámicos en su
entorno. Los organismos no adquieren ni mantienen su complejidad en
el vacío. Su elevada organización y baja entropía queda compensada por
la polución, el calor y la entropía que desprenden a su airededor. Si bien la
proporción de entropía que aportan, que no estaría ahí sin su intervención,
es pequeña en comparación con la enorme cantidad que se produciría en
cualquier caso, aun sin su presencia, su capacidad para comportarse como
máquinas naturales que producen entropía ayuda a explicar su —nues-
tra— existencia.

La tendencia de la naturaleza a reducir gradientes, es decir, la ten-
dencia de la energía a disiparse conforme a la segunda ley de la termodi-
námica, es asistida por organizaciones complejas, vivas y no vivas.“ Así
pues, la segunda ley nos ayuda a comprender quiénes y qué somos y por
qué estamos aquí. Integralmente ligados al entorno del que están sepa—
rados, pero del que obtienen la energía para crecer, los organismos en—
cuentran nuevas maneras de mantener y expandir su forma. Se turnan en
la explotación y agotamiento de fuentes finitas de energía. Su inteligen—
cia, sea consciente y mental o inconsciente y fisiológica, les ayuda a ha—
cerlo. Al consumir energía, al realizar trabajo y construirse a sí mismos,
desempeñan una función natural: la producción de entropía prescrita por
la segunda ley de la termodinámica, que describe la tendencia al incre-
mento de desorganización y a la generación de caos atómico en cualquier
proceso real. Pero no se limitan a obedecer dicha ley, sino que promue-
ven activamente su cumplimiento. Cuando medimos las inmediaciones de

19

organismos complejos y ecosistemas, observamos que mantienen su tem—
peratura a base de disipar su calor interno, para así acelerar la producción
natural de entropía. Irónicamente, o paradójicamente desde cierto punto
de vista, aunque de manera bastante natural desde una perspectiva "ho-
lística", un sistema complejo cumple de manera más efectiva el objetivo
natural de producir entropía que un sistema más simple y menos organi-
zado. Este punto crucial conduce inevitablemente a la sospecha de que
los seres vivos tienen una función natural, similar a la fisiología del cora-
zón o de los pulmones, pero en relación con el medio ambiente mismo.
Aunque no podemos afirmar categóricamente que el propósito de la vida
es fomentar el caos, producir entropía, tal como parece ser la función na-
tural de otros sistemas energéticamente organizados, como los huracanes
y las reacciones quínricas cíclicas, examinaremos esta controvertida idea.
Continuando con el despiadado ataque a nuestro orgullo acometido por
la ciencia, que nos ha mostrado una y otra vez que no somos entes espe-
ciales, distintos del resto del universo, quizá deberíamos abandonar nues-
tro último bastión, la convicción de que nuestra inteligencia y designio
están por encima del resto de la naturaleza. Si la ciencia ha desmontado
las ideas de que nos hallamos en el centro del universo, de que estamos
hechos de una materia especial y de que no poseemos vínculos con los
demás animales, sino con Dios, entonces el propósito de la vida quizá
también sea vulnerable al ataque científ1co. Tal vez la vida, que tiene
tanto en común con otros sistemas complejos energéticamente organiza—
dos, tenga en el fondo la prosaica función de transformar energía. Sabía-
mos que no éramos tan especiales. Pero el terrible espectro, la oscura
sombra de la termodinámica nos amenaza ahora con revelamos que po—
dríamos ser aún menos especiales de lo que creíamos. Puede que seamos,
parafraseando a Tailulah Bankhead, "tan puros como el agua de cloaca".

Pero la fuerza de la TNE apenas depende de la tesis radical, herética
tanto para la ciencia como para la religión, de que una de las funciones
primordiales de la vida es la producción óptima de entropía. La TNE
arroja luz sobre una amplia variedad de temas, desde la ecología y la eco-
nomía hasta la búsqueda de vida extraterrestre (lo que la NASA llama
ahora "astrobiología"). Alimentada por la luz del Sol, la biosfera ha or-
ganizado la atmósfera planetaria mediante su intercambio de gases; tanto
es así que unos alienígenas que analizaran la atmósfera de la Tierra con
un interferómetro extraterrestre podrían inferir nuestra presencia a partir
de la química atmosférica, que se encuentra lejos del equilibrio termodi-
námico.9 Las aciencias de la complejidad" basadas en simulaciones por
ordenador son muy prometedoras y han recibido mucha atención, pero
tienden a una insularidad e idealización matemática que puede hacerles

20

perder contacto con los hechos que pretenden modelar… Esto vale espe-
cialmente para la ecología y la evolución, que, según nuestra concepción,
son fenómenos basados en el flujo de energía. Las pautas basadas en al—
goritmos de ordenador, aunque agradables a la vista y cautivadoras para
la mente, guardan poca relación con la realidad que supuestamente si—
mulan. Llevado al límite, puede decirse que la "vida artificial" es a la
vida lo que una muñeca es a una mujer, es decir, un remedo superficial y
no una recreación integral. Así pues, a diferencia de otros libros recien-
tes sobre el tema de la complejidad —aunque sin desmerecer una mate—
mática experimental con grandes perspectivas de futuro—, estamos mu—
cho menos interesados en las simulaciones de la realidad biológica que
en la realidad biológica misma. Con un enfoque centrado en las confe—
rencias de Schródinger, que pusieron los cimientos del programa de in-
vestigación que condujo a la biología molecular, la TNE puede revelarse
a largo plazo más importante para nuestra comprensión de la aparición y
persistencia de la complejidad en la naturaleza que la biología molecular
o las simulaciones insulares.11 Para los seres vivos, el equilibrio termodi—
námico equivale a la muerte, por lo que es imperativo comprender la
TNE, el camino menos tomado en la bifurcación del alegado dual" de
Schrodinger.

En la segunda parte, "Lo complejo", investigamos sistemas comple-
jos no vivos, entre los que se incluyen las células convectivas de Bénard,
las reacciones químicas autoorganizadas espontáneamente y los tornados.
Aunque más simples que la vida, estos sistemas muestran comporta-
mientos cíclicos y una coherencia masiva entre sus partes. "Viven" por
un tiempo, es decir, se individualizan y diferencian del caos relativo cir—
cundante. Surgidos de forma espontánea (como seguramente también la
vida), estos sistemas complejos son establecidos por un gradiente, una di—
ferencia medible de presión, temperatura o concentración química. Los
gradientes inducen un flujo de energia y, si las condiciones son favora—
bles, surgen sistemas complejos —y, en algunas ocasiones, como en el
caso de los vértices de Taylor y otras estructuras hidrodinámicas com-
plejas, incluso se "reproducen"— que contribuyen a reducir los gradien-
tes medioambientales. ¿Podemos ver en estos sistemas relativamente
simples a los precursores de la fisiología, la capacidad de regular y re-
sistir las perturbaciones, que se desarrollaría plenamente con el adveni-
miento de la vida?

La tercera parte, "Lo vivo", presenta la sustancia científica del libro.
Los gradientes de temperatura y presión en el interior de estrellas masi—
vas constituyeron el crisol donde se cocieron los elementos de la vida, y
Ios gradientes cósmicos también organizaron la química del sistema so—

21

lar, enviando los materiales más densos al centro y los más ligeros a la
periferia. Si la vida surgió en la Tierra —lo cual es más que probable, te-
niendo en cuenta los incrementos naturales de organización en regiones
expuestas a flujos de energía, puede que se originara en el fondo de los
océanos, en asociación con capas de minerales precipitados por fuma—
rolas submarinas que proporcionaban gradientes de temperatura y sul—
furo. Estas fumarolas, muy habituales en la Tierra geológicamente jo-
ven, habrían proporcionado el metabolismo basado en el sulfuro de hierro
necesario para la reproducción de los precursores de las arqueobacterias
—procariotas resistentes al calor, productores de metano y otros "extre—
mófilos" cuyo último ancestro común, como sugieren las comparaciones
de su ARN ribosómico, también tenía un metabolismo sulfúreo.

Tras una breve discusión sobre la historia de la ecología, presentare-
mos datos comparativos para mostrar que los ecosistemas se comportan
igual que otros sistemas termodinámicos: crecen, reciclan materiales y se
desarrollan de manera predecible en respuesta a un flujo de energía me-
dioambiental. También de manera predecible, experimentan una regre-
sión cuando se ven privados de energía o de su aprovechamiento debido
al deterioro. Los ecosistemas estresados revierten hacia estadios previos
en su desarrollo de un modo análogo al comportamiento de otros siste—
mas termodinámicos privados de flujo de energía. Los termómetros aéreos
y los satélites meteorológicos muestran que los ecosistemas más ricos y
complejos, como los de la cuenca del Amazonas, son los más eficientes
en la reducción del gradiente térmico entre la superficie terrestre y el es-
pacio exterior. Los ecosistemas termodinámicamente competentes se re-
frigeran principalmente por evapotranspiración, es decir, a través del flujo
de agua que asciende por los troncos de los árboles y se evapora en las
hojas. Registrados desde el espacio en los meses más cálidos, los ecosis-
temas neblinosos combinados de Indonesia, Java, el Congo y el Amazo-
nas están a la temperatura del Canadá septentrional en lo más crudo del
invierno. Esta prodigiosa actividad termodinámica es un indicador de la
relación entre organización, lo vivo y lo no vivo, y flujo de energía. Como
en otros sistemas termodinámicos, la complejidad de la vida es una deri—
vación natural de la reducción de gradientes implícita en la segunda ley:
allí donde las circunstancias lo permiten, surgen organizaciones cíclicas
para disipar entropía en forma de calor… Los gradientes, como el de la
temperatura entre el Sol y el espacio exterior. pueden ser enormes, y eli-
minarlos puede llevar eones. Pero los sistemas complejos asociados a los
gradientes son naturales. Aunque a veces parezcan estar organizados por
una fuerza externa, no se requiere ningún "agente deliberado", como dijo
Aristóteles hace más de veinte siglos.“

22

Así como la evolución darwiniana conecta al ser humano con otras
formas de vida, la TNE conecta la vida con los sistemas complejos no vi-
vos. El último capítulo de esta sección pasa de la ecología a la evolución
para mostrar cómo la termodinámica nos ayuda a comprender el pro-
greso, observable por la tendencia al incremento de los taxones (espe-
cialmente los superiores), la respiración y la percepción e inteligencia con
el paso del tiempo. A pesar de que la Tierra ha sufrido varios períodos geo—
lógicos de extinción masiva, muy probablemente causados por impactos
catastróficos de meteoritos seguidos de cambios climáticos y periodos de
vulcanismo,ls y a pesar de la naturaleza aleatoria de tales impactos, la
vida en general se ha recuperado siempre, y tras esos periodos ha alcan-
zado nuevas cotas en el uso, almacenamiento y reciclado de la energía.
La diversidad biológica tiene muchas explicaciones, pero la más general
hay que buscarla en una mayor energía disponible y un mayor número de
especies en el Ecuador terrestre. Puesto que el acceso a los gradientes se
mejora mediante el perfeccionamiento de la percepción, puede argumen-
tarse que el incremento de la inteligencia es una tendencia evolutiva que
promueve selectivamente la prosperidad de aquellos que explotan recur-
sos menguantes sin agotarlos.

En la cuarta parte, "Lo humano", examinaremos cómo la TNE arroja
luz sobre la economía, la salud y nuestro lugar en un cosmos energético
de grandes posibilidades. Aunque la nuestra no es, ni mucho menos, una
interpretación religiosa tradicional, señalamos que los organismos son en—
tes intencionales, y que esta tendencia, conectada con la necesidad de
encontrar alimento y parejas sexuales y de excretar desechos, puede en—
tenderse como un reflejo de su génesis termodinámica.

23

Introducción

Problemas en la Agencia de Protección Medioambiental

Confesiones de un funcionario gubernamental

En 1971, a uno de nosotros, Eric Schneider, le quitaban el sueño dos
cuestiones simples: ¿existen leyes que gobiemen el comportamiento de
ecosistemas enteros?; y si es así, ¿cuáles son?

Es posible que por aquel entonces no hubiese nadie en el mundo para
quien resultase más útil responder a estas preguntas. Como director del
Laboratorio Nacional de Calidad del Agua Marina de la Agencia de Pro—
tección Medioambiental (APM), situado en Narragansett, Rhode Island,
la misión de Eric era proporcionar datos científicos para preservar la ca-
lidad del agua de costas y estuarios. Las leyes estadounidenses confiaban
específicamente a la APM la responsabilidad de proteger la salud hu-
mana, los bancos de pesca y los ecosistemas de las aguas costeras. Lo que
se esperaba de Eric era que evaluara la salud de los ecosistemas sin nin-
guna definición de salud ecosistémica y sin instrumentos de medida ade-
cuados. No era una tarea fácil.

Cuando en 1971 tomó posesión de su cargo como director del labo—
ratorio de la APM, Eric se encontró con que la mayoría de datos dis—
ponibles consistía en pruebas de toxicidad muy simples realizadas con
algas y peces pequeños. Según un protocolo típico, se sometía a especí—
menes adultos del pez Fundulus heteroclitus a un tóxico hasta que moría
un porcentaje medible de ellos. Se aplicaban numerosas pruebas a orga—
nismos que "se mantenían bien". Dicho sin rodeos, los organismos se-
leccionados eran aquellos que podían sobrevivir aislados en frascos de vi-
drio aireados Los experimentos de la APM se completaban en 96 horas,
un lapso de cuatro días que permitía montarlos y desmontarlos en el plazo
administrativo de una semana. Si bien el protocolo era poco riguroso
desde el punto de vista científico, era conveniente a efectos burocráticos.
El principal problema era que las especies empleadas no eran necesaria—

25

mente representativas de la salud ecosistémica. Por ejemplo, algunos de
los organismos más resistentes pertenecían a especies pioneras que reco—
lonizaban ecosistemas degradados, por lo que más bien eran indicadores
de una mala salud ecosistémica. Contar cuántos miembros de una espe?
cie resistente, mantenidos en frascos aireados, morían al cabo de 96 ho-
ras de exposición a un veneno: ésta era la base de nuestros estándares na-
cionales de calidad del agua en los años sesenta y a principios de los
setenta.

Aunque Eric no era biólogo de formación —era doctor en geología
marina por la Universidad de Columbia—, tenía claro que el cometido del
laboratorio no era mantener pececillos resistentes a altas dosis de veneno,
sino proteger ecosistemas marinos enteros. ¿De que servía —razonó—
establecer un estándar de calidad del agua basado en unos peces cuyas
presas morían al estar expuestas a concentraciones de tóxico mucho más
bajas? ¿Y si la vida de estos "tipos duros" dependía de otros organismos
más susceptibles a los venenos? En ese caso, la resistencia no garantiza-
ría la supervivencia. De hecho, por aquel entonces se sabía bastante poco
sobre las conexiones entre las especies. ¿Acaso los miembros de ecosis-
temas saludables, c0rno las personas con un alto nivel de bienestar, no es-
tán conectados a una vibrante e interdependiente comunidad compuesta
por otros seres?

Cuando Schneider planteó la pregunta obvia de por qué no se exami-
naban ecosistemas enteros, sus colaboradores hicieron comentarios como
éstos: "no se puede traer un ecosistema entero al laboratorio" 0 me se
puede replicar un sistema natural en el laboratorio".

Unos años más tarde, sin embargo, aquellos mismos investigadores
estaban estudiando ecosistemas marinos en miniatura. Estos ecosistemas
a escala reducida (o "mesocosmos", como fueron denominados) eran ver—
siones en miniatura de la bahía de Narragansett. Los sistemas interde—
pendientes consistían en numerosas especies representativas mantenidas
en tanques donde se había filtrado agua marina procedente de la zona.
Y remedaban el ecosistema real de la bahía con sorprendente precisión.
No obstante, seguía siendo imposible llevar a cabo experimentos de toxi-
cidad en el medio ambiente natural; comprensiblemente, la APM y los
controladores de polución estatales se mostraron en contra de verter toxi-
nas, como el mercurio, en los mares o marismas naturales, ni siquiera
en pos de los más elevados fines científicos. Al mismo tiempo, las áreas
polucionadas de manera "natural", por el vertido de petróleo o el mercu-
rio procedente de la producción de papel, se convirtieron en laboratorios
improvisados donde los científicos intentaban evaluar la circulación de
los materiales tóxicos y la recuperación, si la había, de los ecosistemas

26

deteriorados. Para resumir una larga historia: en 1971, Eric tuvo claro que
la toxicología ecosistémica —una subdisciplina de la ecología, y la cien—
cia que necesitaba la APM, si es que realmente quería proteger el medio
ambiente— estaba en mantillas. Lo mismo se podía decir de la ecología
en general. Aunque los hábitats humanos estaban cada vez más amena—
zados, la ciencia requerida para comprender con precisión cómo se ha-
bían degradado y, por ende, cómo podían recuperarse apenas existía.

Desde entonces, la ecología ha experimentado grandes progresos. Los
ecólogos estudian las interacciones que determinan la distribución y
abundancia de organismos. La mayor parte de lo que sabemos al respecto
es fruto de cientos de años de observaciones minuciosas de cambios en
especies, poblaciones y paisajes. Sin embargo, la organización de tales
observaciones fue acometida apenas en los últimos 150 años. Así, la eco—
logía se dividió en numerosas ramas especializadas: ecología de pobla-
ciones, teoría de la relación depredador-presa, teoría de nichos, autoeco-
logía, sinecología, ecología de ecosistemas, microecología, ecología de
hormigas, ecología del elefante y ecología humana, además de innume—
rables modelos. Pero ¿dónde estaba la teoría general capaz de predecir el
comportamiento real de la totalidad del ecosistema?, se preguntó Eric.
¿Dónde estaba la teoría que pudiese decirnos qué le ocurriría a un deter—
minado lago si su temperatura ambiente se incrementase en 5 ºC, o si se
acidificase; o qué le ocurriría a otro ecosistema con organismos distintos
en las mismas condiciones? Químicos marinos descubrieron que conta-
minantes como el DDT, los elementos radiactivos y el mercurio circula-
ban por todo el ecosistema y habían llegado a afectar a las personas. Pero
¿qué rutas tomaban estos materiales tóxicos, cuáles eran sus tasas de
circulación y dónde se acumulaban materiales similares en los sistemas
naturales? A Eric le parecía que lo que la APM necesitaba era una teoría
que explicara el flujo material y energético a través del ecosistema en su
totalidad.

Quizá por su formación en ciencias físicas, Eric estaba predispuesto
a buscar regularidades y leyes aplicables a todos los ecosistemas. En par—
ticular, le atrajeron las investigaciones realizadas por los primeros espe-
cialistas en flujo de energía. ¿Podría haber principios físicos simples sub—
yacentes a la complejidad biológica, tanto en los ecosistemas locales
como en la biosfera en su totalidad? Parecía que los autores de mayor
relevancia por fin se ocupaban más de ecosistemas completos que de sus
partes constituyentes. Unos pocos grupos, en particular el compuesto por
los discípulos de G. Evelyn Hutchinson en la Universidad de Yale, habían
hecho incursiones significativas en el seguimiento del flujo de energía a
través de ecosistemas enteros, y de su efecto sobre estos. Hutchinson y

27

sus colegas —primero en el Simposio sobre Biología Cuantitativa de
Cold Spring Harbor, celebrado en 1957, y luego en el Simposio sobre Di-
versidad y Estabilidad de Sistemas Ecológicos de Brookhaven— amplia-
ron el estrecho enfoque centrado en la distribución y abundancia de es—
pecies individuales. Las intuiciones de Hutchinson y sus discípulos
permitieron ir más allá de la cuantificación de nutrientes interactivos y
sus efectos, y llevaron a Eric Schneider y algunos otros a hacerse la pre—
gunta más amplia de por qué los ecosistemas se comportan tal como lo
hacen, una cuestión directamente relacionada con la fascinante pregunta
—algunos dirian ala pregunta de las preguntas"— de por qué, desde una
perspectiva material y física, existe la vida.

La respuesta tenía que ver con la energía, y al final arrojó luz no sólo
sobre los ecosistemas, sino también sobre los organismos y los sistemas
no vivos, cuyo dominio se ha dado en llamar "ciencias de la complejidad".
De hecho, como descubrió más tarde con gran alegría y sorpresa, Eric no
estaba solo: por aquel entonces se encontraba en marcha un programa de
investigación de lo más prometedor que ligaba la biología a la física de la
energía. Fue como encontrar un tesoro enterrado: además de unas cuantas
gemas envueltas en la investigación teórica previa, resultó que ya se ha-
bían enumerado las características termodinámicas de un puñado de eco-
sistemas. Con alborozo, Eric descubrió que existía una termodinámica
ecológica joven pero sofisticada que estudiaba específicamente el flujo de
energía y sus transformaciones en los sistemas naturales.

Ya en los comienzos de la termodinámica —la ciencia del movi-
miento del calor y las transformaciones de la energía—, Ludwig Boltz—
mann, uno de sus fundadores, tenía cosas importantes que decir sobre la
vida. Científicamente hablando, la vida puede contemplarse como un tipo
de sistema complejo regido por la energía y sus transformaciones. Al tra-
tarse de una ciencia dedicada al flujo de energía y la cinética química, la
termodinámica es crucial para comprender la vida. Los investigadores
que deseen entender el flujo y las transformaciones de la energía en la
biología deben tener en cuenta la termodinámica, ya que una propuesta
teórica que no se ajuste a los principios termodinámicos carece de sen-
tido. Tal como Eric comprobó más tarde, esta oscura ciencia, que partió
del diseño de máquinas de vapor eficientes, era indispensable para com—
prender la vida, En la actualidad, las ciencias del flujo de energía deriva—
das de la termodinámica arrojan luz sobre el crecimiento y desarrollo de
los organismos, el origen y la historia de la vida, el desarrollo de los eco-
sistemas y la búsqueda de modos de vida más sostenibles. La investiga-

28

ción de Eric sobre los principios físicos que rigen los ecosistemas se con-
virtió en parte de una ciencia totalmente nueva, la termodinámica de la
biología. Esta ciencia emergente ha generado sus propias hipótesis e
ideas, y algunas de éstas han sido corroboradas o lo están siendo por da—
tos ecosistémicos recopilados con anterioridad. Una de las ideas más in-
teresantes de esta nueva ciencia tiene que ver no sólo con la manera en
que el flujo de energía organiza la vida, sino con la razón material de su
existencia.

La nueva termodinámica

La termodinámica, con frecuencia considerada como un gris, aburri—
do e irrelevante erial matemático de tablas y verborrea arcana, importante
quizá para las mediciones moleculares realizadas en el laboratorio, para
los creacionistas o los historiadores victorianos, pero sin interés para el
científico común o el hombre de la calle, resulta ser un campo de lo más
fascinante, que atañe directamente a nuestra comprensión más profunda
de la vida y sus operaciones. Entre aquellos que han concebido, esclare-
cido y perfeccionado los fundamentos de la termodinámica clásica se en-
cuentran algunos de los más grandes nombres de la historia de la ciencia:
Camot, Clausius, Boltzmann, Gibbs, Maxwell, Planck y Einstein. Pero la
suya era una termodinámica de los sistemas en equilibrio, sistemas que sí
eran aburridos porque estaban abocados a la estasis, un estado final donde
nada (al menos, nada interesante) ocurría. Como canta David Byrne: "El
cielo es un lugar donde nunca pasa nada". De hecho, los resultados ini-
ciales de la joven ciencia se extrapolaron prematuramente al universo en-
tero para predecir un estado final más aburrido que el cielo y más frío que
el infierno, un apocalipsis nada místico y con menos sentido que la fan-
tasía más pesimista del filósofo más depresivo. Esta predicción se cono-
ció como la "muerte térmica" del universo.

Un libro decimonónico mostraba a un hombre de barba blanca rni—
rando con expresión de horror hacia el océano, que se había congelado.
Un sol moribundo y un océano de hielo sólido: éstas eran las inevitables
conclusiones a que llegaba la nueva gran disciplina cuyo tema era la ener—
gía, cómo extraerla, cómo entenderla y cómo sacar el mejor partido de
los motores de vapor para conseguir el dominio nacional. "Así es como
acabará el mundo, no con una explosión, sino con un sollozo", escribió
el poeta T.S. Eliot. El pobre universo se paralizaría hasta tal punto que no
restaría la más mínima esperanza de que alguna vez renaciera, como el
ave fénix, de sus propias cenizas. En el marco de este juicio final pro-

29

nunciado por la ciencia, de este caos atómico sin recompensa, la empresa
humana parecía ridícula. Puede que la muerte térmica proporcionara un
sustento secreto a las filosofías europeas del existencialismo y el nihi—
lismo, y al teatro del absurdo de dramaturgos como Harold Pinter y Sa-
muel Beckett. Como frenéticas hormigas, tan fáciles de pisotear, nuestras
insignificantes vidas eran en última instancia ridículas en su vanidad, por
muy civilizados que fuéramos o por mucho que hubiésemos evolucio—
nado. Creyentes de los siglos anteriores, como William Buckland, se pro-
digaron en dar gracias a la providencia por haberse dignado a favorecer
a Gran Bretaña con abundantes reservas de carbón, la fuente energética
de la Revolución industrial y el dominio global, que, con la aquiescencia
divina, garantizaba la hegemonía inglesa. Pero las mentes posteriores, de
inclinación más científica, no podían estar tan seguras. La vida parecía el
accidente supremo, una especie de carambola cósmica. Toda organiza-
ción, incluida la de nuestro planeta, estaba en proceso de desaparición.
La vida o bien no duraría, o bien, como les gustaba argumentar a los
creacionistas (algunos todavía lo hacen), había sido creada, animada y
mantenida por la divinidad, en un universo por lo demás destinado a una
destrucción irrecuperable. Y la ciencia —la termodinámica— lo había de—
mostrado.

Bueno, no vayamos tan deprisa. Lejos de predecir la extinción cós—
mica, la termodinámica moderna nos dice que, en regiones del universo
expuestas a un flujo de energía, a menudo surgen estructuras complejas,
vivas o no, que se expanden e incrementan su complejidad. Puesto que
las interacciones entre las fuerzas fundamentales del universo —la gra-
vedad, el electromagnetismo y las fuerzas nucleares débil y fuerte— no
están completamente integradas, como tampoco lo está la materia total del
universo conocido, la expectativa de una muerte térmica (o siquiera un fi-
nal) no es científicamente creíble. Este libro se centra en la evolución que
ha experimentado la termodinámica durante los últimos cincuenta años, la
cual ha permitido el estudio de una nueva clase de sistemas termodinámi-
cos conocidos como "sistemas disipativos o de no equilibrio" —porque
existen a cierta distancia del equilibrio termodinámico—. Las estructuras
estudiadas por esta nueva ciencia incluyen los cumulonimbos, los remoli-
nos, los ciclos químicos intrincados y los seres vivos. Los introductores
de esta termodinámica expandida no son tan conocidos por la mayoría
como los fundadores de la disciplina, pero incluyen a científicos de la ta-
lla de Alfred Lotka, Lars Onsager, Erwin Schródinger, Ilya Prigogine,
George Hatsopoulos, Joseph Keenan, Joseph Kestin, Don Mikulecky y
Jeffrey Wicken. A hombros de estos gigantes, la termodinámica se ha am—
pliado, ahora no sólo se aplica a los motores mecánicos, sino también a

30

la vida, a la vez que se ha simplificado. Lo que más nos interesa aquí
es la gran simplificación sintetizada en el aforismo "la naturaleza abo-
rrece los gradientes"? Este concepto sorprendentemente fructífero, que
exponemos en detalle, condensa buena parte de la investigación reciente
en termodinámica.

La idea de que la naturaleza aborrece los gradientes, una de las no-
ciones clave de este libro, es muy simple: un gradiente no es más que una
diferencia de temperatura, presión o concentración química, por ejemplo
a lo largo de una distancia. La aversión de la naturaleza hacia los gra-
dientes implica que éstos tenderán espontáneamente a desaparecer, de
manera especialmente espectacular por la acción de sistemas complejos
autoorganizados, que aceleran su disgregación. El concepto simple de gra-
dientes que se deshacen resume la difícil ciencia de la termodinámica,
desmitifica la entropía —tan importante para el universo como la grave—
dad y arroja luz sobre cómo surgen de manera natural estructuras y pro-
cesos complejos, incluidos los de la vida.

Un caso de supresión de gradientes con el que estamos familiariza-
dos, y que se relaciona con la aversión de la naturaleza por el vacío, es la
compresión espontánea de una lata de metal de la que se haya extraído el
aire. En este ejemplo, la naturaleza rectifica la diferencia de presión en-
tre el interior y el exterior de la lata, sobre la que el aire circundante ejerce
una presión de casi un kilo por centímetro cuadrado. Pero en este libro
vamos mucho más allá del ejemplo anterior. Así, pondremos de mani—
fiesto que la aversión de la naturaleza por este y muchos otros gradientes
es una ley de la naturaleza, una tendencia imparable en la que el flujo de
energía propicia una variedad de sistemas complejos naturales, incluida
la vida. Mostraremos la gran importancia de esta ley —la llamada "se—
gunda ley de la termodinámica"— en el origen, la persistencia y el even-
tual ocaso de los sistemas complejos naturales, desde los remolinos hasta
las naciones-Estado Asimismo, repasaremos la historia del pensamiento
científico sobre la energía y la materia hasta el presente, cuando nos en—
contramos en la antesala de una gran unificación científica. La energía
procedente del Sol genera, perpetúa y elabora identidades, desde torbe—
llinos y flores hasta economías y gobiernos, muchas de las cuales pare—
cen planeadas por una mano u ojo invisible.

En este ensayo argumentamos que el surgimiento y evolución de la
vida es un proceso cíclico gobernado por el flujo de energía Aunque
la vida es salvaguardada por la biotecnología natural y la replicación del
ADN, y se propaga mediante células reproductivas, es la energía la que
proporciona al proceso evolutivo el ímpetu para comenzar y persistir. Las
estructuras cíclicas complejas surgen alrededor de flujos de energía. La

31

vida, desde su apenas visible inicio microscópico hasta su posible futuro
interplanetario e interestelar, es una de esas estructuras.

La vida como manifestación de la segunda ley

Los estudiosos de la termodinámica clásica reconocían tanto el poder
como las limitaciones de su ciencia. Sabían que vivían en un mundo que
se apartaba bastante de los sistemas, altamente idealizados, en que reina—
ban la máxima entropía y el desorden. En ninguna parte este aparente
conflicto se mostraba tan patente como cuando se comparaba la evolu-
ción de la vida con la predicción de que los procesos aleatorios condu—
cirían a la muerte térmica del universo En su formulación original, la
segunda ley presagiaba que las cosas perderían inexorablemente su capa—
cidad de realizar trabajo, que se consumirían lentamente hasta que todos
los estados fueran de equilibrio, sin energía aprovechable por organismos
o máquinas. Sin embargo, la vida exhibe una tendencia opuesta de com—
plejidad creciente con el paso del tiempo.

¿Cómo es posible? En este libro llamamos a esta paradoja "la para—
doja de Schrodinger", el físico pionero de la mecánica cuántica que in—
sistió en la necesidad de explicar el aparente incumplimiento de la se—
gunda ley de la termodinámica por parte de la vida. En su versión original
básica, la segunda ley establece que la entropía (desorden atómico o mo-
lecular) aumenta inevitablemente en cualquier sistema aislado. Pero los
seres vivos mantienen e, incluso, elaboran exquisitas organizaciones ató-
micas y moleculares a lo largo de los eones.

Eric Schneider había emprendido una misión: la fundamentación
científica de la biología y la ecología. Tan pronto como los ecólogos ener—
géticos le pusieron al corriente, buscó los equivalentes ecológicos de las
leyes de Newton, la F = ma (fuerza = masa x aceleración) de la física.
¿Dónde estaban las ecuaciones simples, como las que describen el trans-
porte en fluidos (las denominadas "ecuaciones de Navier—Stokes"), para
los ecosistemas? ¿Existían siquiera? Al principio parecía que no. Pero su
búsqueda, detallada en el famoso libro de Schrodinger ¿Qué es la vida?,
publicado en 1944, ciertamente si existía. Las tres conferencias en que se
basaba el libro de Schrodinger esbozaban dos ciencias futuras: la biolo-
gía molecular, que tan potente ha demostrado ser, y la termodinámica bio-
lógica, que aún tiene que probar su valía. El otro asunto abordado por
Schrodinger constituye el tema del presente libro. La termodinámica de
la vida debería considerarse como un viaje al núcleo de una ciencia emer—
gente que une la vida con la física, una combinación que algún día puede

32


llegar a ser tan potente como la biología molecular y tan práctica como
la biotecnología. En este ensayo contrastaremos nuestro pensamiento
"biotennodinámico" con los datos existentes y lo ampliaremos a la eco—
nomía, la sanidad, la sostenibilidad de los ecosistemas y la posibilidad de
que haya vida en el espacio exterior.

Al final se plantean diversas cuestiones filosóficas que resultan ine—
ludibles. La principal es la existencia de la vida. ¿Por qué existe la vida?
¿Tiene ésta, desde una perspectiva científica, una función general? Nues-
tra respuesta es que sí. Un gradiente de presión barométrica en la atmós-
fera (la diferencia entre masas de alta y baja presión) da pie a un toma—
do, un sistema cíclico complejo. La función del tornado, su propósito, es
eliminar el gradiente. La vida tiene un propósito natural similar. Sólo que,
en vez de deshacer rápidamente un gradiente de presión y después des—
aparecer, la vida tiende a reducir, en el transcurso de miles de millones
de años, el enorme gradiente estelar que existe entre el Sol caliente y el
espacio frío, ganando complejidad en el proceso. La evolución de for-
mas de vida complejas e inteligentes puede explicarse por la eficacia de
la vida como sistema cíclico consagrado a la reducción de gradientes. La
función original y básica de la vida, como la de los otros sistemas com-
plejos que examinamos en este libro, es reducir un gradiente medioam—
biental.

El crítico cultural C.P. Snow, descontento con la distancia creciente
entre las ciencias y las artes, sugirió que toda persona culta debería co—
nocer la segunda ley de la termodinámica. En su libro Two Cultures and
a Second Look —un precursor disparo de advertencia en el siempre cam-
biante campo de batalla de la guerra de culturas— afirma que no cono-
cer la segunda ley de la termodinámica equivale a no haber leído ninguna
obra de Shakespeare. Esta ley no es ni una garantía de muerte térmica ni
un arcano matemático que sólo interesa a los químicos de polímeros. Por
el contrario, contribuye a explicar la creación y elaboración de sistemas
complejos impulsados por flujos de energía. Además, dirige nuestra aten—
ción hacia los procesos direccionales que observamos en muchas clases
de sistemas complejos en desarrollo, incluidos los de nuestra propia evo—
lución. En resumen, los fenómenos naturales descritos con la rúbrica de
la segunda ley de la termodinámica no sólo destruyen, sino que también
crean (mediante la destrucción de gradientes).

33


Lo dejo aquí porque a partir de este punto termina la introducción y comienza la primera parte del libro. Espero que este breve prólogo os haya abierto el apetito para continuar con la lectura completa de esta extraordinaria obra de divulgación científica.

Un saludo, compañeros.

Sobre lo inútil del debate social

"A ninguno de nosotros le gusta el pensamiento de que lo que hacemos depende de procesos que no conocemos; preferimos atribuir nuestras elecciones a la voluntad, el libre albedrío, el autocontrol…Quizás sería más honesto decir: “Mi decisión fue determinada por fuerzas internas que desconozco“ 
(Marvin Minsky)

"El centro de placer del cerebro evolucionó para guiar nuestras acciones y motivaciones, recompensándonos cuando lo hacemos bien" (Robert G. Heath)



El debate social es algo que está a la orden del día. Los científicos o demás especialistas descubren o alertan sobre algo, y al instante comienza una discusión sobre el asunto gracias a la rápida dispersión de la información que los medios de comunicación favorecen. Y se da por hecho que este proceso de "descubrimiento (alerta)-dispersión social de la información-debate sobre el asunto" finalmente dará como resultado la toma de una decisión racional y global a gran escala pero, ¿es realmente esto cierto? ¿Es cierto que el fruto de tanta información y discusión es la toma final de una resolución o un acuerdo colectivo? Pues probablemente, y pese a nuestra reticencia a creerlo, no sea el caso.

En realidad (y a la vista de la historia -y la prehistoria- del ser humano) es más que probable que el hombre a nivel comunal se mueva, aunque no nos agrade la idea, no de manera racional siguiendo un supuesto "libre albedrío" social, sino mediante una mecánica autosuficiente que, a gran escala, finalmente la decide (estadísticamente) los intereses personales instintivos (evolutivos) de los individuos.

Y ante este hecho, si se confirma (y tiene pinta de ser así), resulta que NO sería viable (ni siquiera en teoría) que la humanidad pudiera NUNCA decidir qué hacer o qué no hacer (de manera exclusivamente racional) en cuanto a nuestro interés general o global como especie, ya que posiblemente se siga como decimos a nivel de grandes masas en realidad un devenir autónomo (estadístico) mucho más espontáneo de lo que podamos imaginar.

Es cierto que es ésta una afirmación pesimista en lo relativo a la humanidad, y esto hace que muchos las repudien sin apenas prestarle atención, pero el hecho de que algo sea desagradable para nuestros intereses como personas no debería de servir a modo de prejuicio: muy probablemente tengamos un grado de libertad (a nivel social) muy similar al de una simple cepa de bacterias en una placa de Petri.

Ya muchos, llegado a este punto, tendrán recelo de todo lo dicho hasta ahora, pero es este recelo fruto de una ilusión cognitiva. Se presupone (a modo de prejuicio) que como sociedad (como colectivo) poseemos una gran libertad de decisión ("racional"); pero bien pensado y con honestidad, esta afirmación se trata simplemente de eso: de un prejuicio injustificado sin base formal.

Es decir; que nuestra predisposición a creer (sin pruebas) que la mecánica del mundo humano la mueve una especie de "raciocinio colectivo" (fruto del debate y el acuerdo global) es una mera ilusión resultado del sesgo que supone que como individuos pretendamos poseer un alto grado de libertad para decidir qué hacer en cada momento. Se da por hecho que, como cada individuo posee esa razón que le otorga una tan amplia libertad de acción, la humanidad como conjunto con más ganas debe poseer una "razón social" aún más grande capaz de hacerle actuar a gran escala de la manera que le plazca: pero insisto en que esto no tiene necesariamente que ser así. Todo este razonamiento se basa en una alegre extrapolación injustificada, y probablemente sea finalmente un argumento falaz.

Y es un argumento falaz porque se olvida apuntar que la libertad de acción que nos otorga la razón como individuos está supeditada a nuestros intereses instintivos evolutivos. El hombre como persona puede en cada momento hacer lo que quiere (y la razón le ayuda a lograr hacer efectivo este deseado acto), pero aún así ¡no puede decidir de ninguna manera qué es lo que quiere en cada momento!: es decir, que ciertamente hace siempre lo que quiere, pero el conjunto de cosas "que quiere" viene acotado e impuesto (grabado en nuestra red neuronal) a priori de manera evolutiva.

Es fácil distinguir en este contexto que el que realmente determina nuestro actos como personas no es entonces ese abstracto y casi inefable concepto que denominamos "razón", sino el sistema neuroendocrino. Cada vez que hacemos (razón mediante) "lo que queremos", el sistema neuroendocrino suelta un chorro de neurotransmisores que hacen las veces de moduladores de la consciencia sensible. Según sea la carga del neurotransmisor emitido, una idea de "agrado", "placer", "disgusto", "dolor", "amor", etc., copará nuestra mente. Y la regla que ata los cabos es simple: el ser humano está programado evolutivamente para querer hacer (desear) siempre aquello que le produce un flujo de neurotransmisores lo más "placentero" posible dada las circunstancias.

Es decir, que aunque la razón nos ayude (con mucha eficiencia por cierto) en conseguir poder realizar aquello que queremos, el dictado de lo que queremos o no queremos hacer viene impuesto mediante la dinámica de esos chorros de neurotransmisores cerebrales (junto con la regla de maximizar las sensaciones "placenteras"). Pero debe quedar muy claro que el cuando, el cómo y la manera en que esos neurotransmisores se sueltan en nuestra cabeza (y su relación con los conceptos psicológicos abstractos que asignamos a cada combinación de estos neurotransmisores) es algo que viene determinado por el instinto genético (es algo a priori y no racional en ningún sentido de la palabra, a menos que se entienda que el proceso evolutivo "racionalmente" programó nuestro cerebro con el paso de los años).

De esta manera, y al extrapolar ahora sí con fundamento el comportamiento del individuo al de una gran muestra de población, nuestra dinámica natural (el devenir de la humanidad) será ahora estadístico, y surgiría espontáneamente al entrar en juego una especie de reducción "matemática" sobre la suma (la media, mejor dicho) del conjunto de intereses personales (instintivos) de los individuos de los grupos implicados en cada asunto social determinado.

Merece la pena insistir en que como hemos dicho no es la razón (cuya función es simplemente la de ayudarnos a conseguir en cada momento los mayores flujos positivos de neurotransmisores en nuestro cerebro) sino el instinto evolutivo (la estructura de nuestra red neuronal y la química de los neurotransmisores implicados) lo que realmente mueve al individuo. Y a nivel social ocurre exactamente igual: NO es un "raciocinio colectivo" como tal el que determina el devenir del hombre en su conjunto, sino una suerte de media estadística en la suma de los flujos positivos de todos los individuos de cierto conjunto de la población (es decir, en el interés personal de cada individuo al más bajo nivel). 

Como corolario de todo lo dicho podemos concluir que a nivel global no importará jamás lo que sea "racionalmente" mejor para el futuro al largo plazo de la humanidad en su conjunto, y tampoco importará cuánto se debata o se discuta (o se alerte) sobre un asunto social cualquiera; finalmente se hará (casi de manera autónoma y espontánea mediante la interacción y el conflicto de intereses anidados) aquello que favorezca de media (al corto plazo) al mayor número posible de personas en cuanto a sus "deseos" instintivos. Así funciona nuestra esencia biológica y así lo demuestran ciencias tan serias como la biología, la neurología o la psicología evolucionista.

Valga un ejemplo práctico de lo que os cuento:

Hace décadas que racionalmente sabemos que el cambio climático va a arruinar el mundo (y a la humanidad) más pronto que tarde. Y conocemos también (racionalmente) las medidas que habría que tomar ya mismo...pero no las tomamos. De alguna manera siempre hay "excusas racionales" que parecen impedir un acuerdo. En realidad es todo una malinterpretación de los hechos:  no se trata de que se puedan tomar estas medidas pero "no se quiera" (y aquí cada cual según sus ideales rellenará la frase poniendo una excusa económica, política o psicológica que justifique el porqué no se toman las medidas oportunas), sino que por el contrario, muy probablemente se trata de que sencillamente NO se puede hacer nada (pese a que se quiera y a que se conozcan los riesgos al largo plazo). Es evidente que es el instinto (evolutivo) personal del conjunto de la población el que realmente guía (estadísticamente) la deriva mundial pese a que nuestro ego nos haga pensar prejuiciosamente lo contrario en favor de ese gran "don" que se supone que es la "razón" humana.

Así que piensa en ello con detenimiento y reflexiona: si con todo el empeño que le ponemos no logramos tomar las medidas climáticas que racionalmente sabemos que se deberían tomar sin dilación, quizás no sea por falta de más debate o información, sino sencillamente porque nuestra esencia biológica no nos lo permite.

Un saludo, compañeros.

viernes, 28 de julio de 2017

Introducción a la teoría cuántica de campos (QFT) y la energía del vacío

“I mentioned my results to Niels Bohr, during a walk. That is nice, he
said, that is something new... and he mumbled something about zero-point
energy.” (Hendrik Casimir)

“There are no real one-particle systems in nature, not even few-particle
systems. The existence of virtual pairs and of pair fluctuations shows that
the days of fixed particle numbers are over.”
(Viki Weisskopf)

Llevo unas semanas intentado dar el siguiente paso en mi intento por llegar a alcanzar en lo posible el estado de la ciencia en física. Y después de algo más de un año enfrascado en mecánica clásica, relatividad, y mecánica cuántica; por fin he podido comenzar con una teoría que estaba deseando de poder entender con alguna garantía: la teoría cuántica de campos (Quantum Field Theory - QFT). Efectivamente, comprender la QFT es el primer paso para conseguir abarcar con éxito el modelo estándar de partículas a nivel formal, y también para pretender estudiar teorías físicas actualmente en proceso de construcción, como por ejemplo la teoría de cuerdas.

Sea como fuere, me está constando la misma vida entender conceptualmente esta teoría cuántica de campos. Matemáticamente es un reto impresionante (al menos a mí así me lo parece), y el nivel en que se presentan las ecuaciones es tremendamente críptico; donde se mezclan abstractas notaciones de la relatividad con las propias de la mecánica cuántica, dando lugar a fórmulas con la notación bra-ket de Dirac, mezcladas con cálculo variacional y funcional, y con notaciones del cálculo tensorial y del convenio de sumación de índices de Einstein; amén de hacerse como no podría ser de otro modo un profuso uso del cálculo infinitesimal.

Evidentemente en un post del blog no voy a poder explicar a fondo mucho de la QFT (más aún cuando todavía estoy en proceso yo mismo entenderla), pero sí que voy a intentar dar una pequeña introducción de la manera más sencilla posible (que no obstante no será sencilla en el sentido de que cualquier persona pueda entenderla si no tiene cierta base matemática). Esta introducción de hecho me la tomo más como un trabajo personal para afianzar los conocimientos adquiridos, que como un intento de que alguien no entendido en la materia vaya a poder sacarle jugo. De todas formas me alegraría mucho si el esfuerzo invertido en escribir todo este trabajo pudiese ayudar a alguien. Si es así, agradecería a esa persona un comentario :).

A modo de referencia para escribir este artículo he utilizado varios manuales y libros, aunque es de destacar el curso sobre QFT impartido por el profesor Dr. David Tong en la Universidad de Cambridge. Podéis seguir sus clases en este enlace:

https://www.youtube.com/playlist?list=PLaNkJORnlhZlVkrpQVvCTVvGAMIlXL88Y

Las notas de este curso en formato PDF la tenéis aquí: http://www.damtp.cam.ac.uk/user/tong/qft/qft.pdf

I. Introducción.

La teoría cuántica de campos trata como su propio nombre indica de trasladar todos los fenómenos físicos observables al concepto de campo. Un campo en general es una representación formal mediante la cual a cada posición del espacio y el tiempo se le asigna una propiedad o valor. Según el tipo de propiedad que se tenga en cuenta para cada punto o posición del campo se hablará de campos escalares, vectoriales o tensoriales.

El caso más sencillo imaginable es el de un campo escalar en tres dimensiones. Al tratarse de un campo escalar, el valor que cada punto del espacio (en este caso de ejemplo en 3-dimensiones) va a poseer es un simple número. Es decir, que podemos imaginar en este caso una especie de cubo donde cada punto infinitesimal concreto del mismo (determinado por sus 3 coordenadas espaciales x,y,z) poseerá un valor que podrá ir variando con el tiempo.

Para hacerte una idea mental de lo que significa este campo puedes pensar en la temperatura en cada punto infinitesimal de una habitación de tu casa. Cada parte de la habitación (cada minúsculo punto de la misma) va a poder representar con un valor real (medido en grados) su temperatura. Pues bien, al conjunto completo de la temperatura en cada punto infinitesimal de ese cuarto se lo denominará campo escalar, y matemáticamente se usará para trabajar con este concepto una función dependiente de la posición y del tiempo, de manera que; pasándole a dicha función el lugar y el momento en que quieres medir la temperatura (para seguir con el ejemplo), la misma devolverá un valor real representando ese valor concreto:

φ(x, t) ∈ R     (1)

Hay que tener en cuenta que, al contrario de lo que ocurre en la física clásica tradicional, aquí no estamos interesados por la dinámica (el modo en que varía) las partículas individuales, sino por la dinámica (el modo en que varía) los valores del campo completo que estemos considerando. También hay que tener en cuenta que el dominio del campo φ es infinito, en el sentido de que tendremos un valor como mínimo para cada punto infinitesimal x del espacio bajo consideración. En el caso de tu habitación, por ejemplo; hay infinitas posiciones espaciales (x, y, z): 

φ(x=5, y=2.5, z=6, t=0) = 25 grados centígrados,
φ(x=5.01, y=2.6, z=6.0006, t=0) = 25.1 grados centígrados,
 etc.

Estos campos no tienen como ya hemos dicho que ser escalares, y la propiedad que se le asigna a cada puntito infinitesimal del espacio podría ser un vector en lugar de un simple número. Este vector tendrá dirección, sentido y magnitud; y lo podéis visualizar por ejemplo en 2 dimensiones con el siguiente gráfico:


Este enjambre de vectores es lo que nos define nuestro campo vectorial de ejemplo en 2 dimensiones (x,y). Si imaginamos ahora este conjunto de vectores en tres dimensiones dentro de un cubo podríamos imaginar que se trata de algo similar a lo que representa por ejemplo algún tipo de fluido al formar un torbellino. Es decir, que cada punto infinitesimal del cubo ya no representa sólo un número sino un vector: una infinidad de vectores si tenemos en cuenta como vimos antes que en cualquier espacio de volumen V hay una cantidad infinita de posiciones determinadas por las coordenadas (x,y,z).

I.1. La precisión de los campos.

La teoría cuántica de campos basa su potencia en reducir todo fenómeno en el mundo al concepto de campo que hemos visto arriba. Es decir, que no sólo es el electromagnetismo lo que se va a reducir a un campo como ocurría con la teoría clásica de campos, sino que vamos a tratar como componentes de campos incluso a las partículas de materia, hablándose de que hay un tipo de campo por cada partícula existente: un campo de electrones, un campo de quarks, un campo de muones, un campo de partículas de Higgs, etc. Todo esto lleva implícito primero un paso al nivel cuántico del concepto clásico de campo, y posteriormente del estudio de la "interferencia" o "interacción" entre estos campos para deducir finalmente la configuración que permite "acoplar" todos estos campos a la vez de manera que se mantenga al mismo tiempo la simetría (la conservación) de las magnitudes físicas fundamentales: conservación de la carga eléctrica, del momento angular, de la energía, del momento lineal, etc.

Merece la pena comentar que al meter las matemáticas "correctas" en medio de esta compleja idea de campos, resulta que muy pocas configuraciones son aptas para lograr mantener la simetría mencionada, siendo además las configuraciones viables (muchas veces una única configuración) extraordinariamente precisas a la hora de describir el fenómeno del mundo, llegándose en ocasiones a una precisión entre la predicción teórica y la medición experimental de más de 10 decimales.

II. Campos cuánticos.

Cuando se procede a llevar al terreno cuántico estos campos de los que hemos hablado, hay que tener en cuenta que se debe de hacer en concordancia con la relatividad especial, por lo que habrá que proceder con cuidado. Así que lo que se suele hacer es partir primero del caso más sencillo posible dentro de la mecánica cuántica tradicional, es decir, aquel sistema de una sola partícula (moviéndose a velocidad no relativista) sin spin intrínseco ni fuerzas (potenciales externos) actuando sobre ella. En este caso la energía total del sistema (denominada como Hamiltoniano H = T + V) se reduce en mecánica cuántica a la energía cinética (T), resultando el operador H:

H = T + 0 = 1/2m P²     (2)

siendo m la masa de la partícula, y P el operador momento lineal.

Por otra parte, en relatividad especial la energía total de un cuerpo en relación a su momento lineal se expresa con la expresión (tiendo en cuenta que E0 = mc²):

E² = p²c² + (mc²)² => E = +√p²c² + (mc²)²,    (3)

H = +√P²c² + (mc²)²     (4)

Es decir, que hemos procedido a tomar la energía relativista convirtiendo el momento relativista p de la partícula en un operador cuántico P, y tomando E = H (como la energía total del sistema). Esto nos deja con una ecuación de Schrödinger de la forma:

  (5)

Esta fórmula presenta no obstante algunos inconvenientes como el hecho de que presenta una derivada parcial de primer orden sobre el tiempo a la izquierda y una derivada de segundo orden dentro de una raíz cuadrada a la derecha de la ecuación (y esta asimetría entre espacio y tiempo no es "buena" para la relatividad). Para solucionar esto se toma el cuadrado de amabas partes resultando:

 (6)

Esta es la ecuación denominada Klein-Gordon siendo de segundo orden tanto espacial como temporalmente presentando la deseada simetría espacio-temporal de la relatividad.

Mencionar brevemente que c² es la velocidad de la luz al cuadrado, m la masa de la partícula, ħ² es un valor constante (la constante reducida de Planck), y el símbolo que semeja a una letra griega Δ invertida es el operador Laplaciano:


correspondiendo ∂²/∂x², ∂²/∂y² y ∂²/∂z² a una derivada parcial sobre cada eje de coordenadas x, y, z.

Si trabajamos ahora con sistema de referencia inercial relativista, las coordenadas espacio-temporales vienen determinadas por el vector (ct, x, y, z) que se suelen simplificar con la notación:




Donde x0 = ct para que las 4 coordenadas del vector posean unidades espaciales ([x]= metros, [c] = metros/segundo, y [t] = segundos, por lo que [ct] = metros). Esto quiere decir que estamos representando el mismo vector inercial (ct, x, y, z) pero con una simbología más simplificada (y más críptica).

Esta nueva simbología implica también una simplificación en la forma de expresar las derivadas parciales:


Lo que nos permite también expresar la derivada parcial de segundo orden como:


Todo lo cual nos permite expresar la ecuación anterior (6) de una manera mucho más simplificada como:


Esta ecuación se puede simplificar aún más, resultando finalmente de nuevo la ecuación denominada Klein-Gordon pero simplificada con la nueva simbología utilizada: 


Una última simplificación consiste en hacer uso de lo que se conoce como unidades "naturalizadas", lo cual equivale a igualar a uno el valor de la velocidad de la luz y de la constante reducida de Planck:

c =  ħ = 1

Lo cual nos deja la ecuación Klein-Gordon de como:

  (7)

Lo realmente interesante de todo lo visto hasta ahora es el hecho de que hemos encontrado una ecuación para el caso de una partícula moviéndose libremente (sin potenciales externos que la afecten) que es además invariante ante cualquier cambio de sistema inercial (la demostración de este punto no la haré pero es relativamente trivial). 

Hasta aquí podría parecer que todo perfecto pero hay un problema, la ecuación Klein-Gordon no es consistente con uno de los axiomas fundamentales de la mecánica cuántica. Al elevar en (6) al cuadrado modificamos al mismo tiempo la ecuación implícita de Schrödinger, haciendo a la parte izquierda de la ecuación de Klein-Gordon depender de una segunda derivada del tiempo en lugar de depender temporalmente de una derivada de primer orden (como en la de Schrödinger). Esto supone un problema porque sea cual sea la función de onda ψ(x,t) que satisfaga la ecuación de Klein-Gordon, no será capaz de conservar la distribución de probabilidad de los estados del sistema libre ques estamos considerando.

En otras palabras, que uno de los postulados básicos de la mecánica cuántica (en sistemas libres) supone que la suma infinitesimal en la probabilidad de encontrar a una partícula en cualquier parte del espacio (en 3 dimensiones) debe resultar en 1. La partícula estará en algún lugar del espacio x' =(x,y,z) con certeza absoluta (=1), y la probabilidad de que esté concretamente en x la da el cuadrado de |ψ(x,t)|² = ψ(x,t)*ψ(x,t). Pues bien, la suma infinitesimal (integral) de todas las probabilidades otorgadas por ψ(x,t) en el espacio completo debe ser siempre igual a 1 independientemente del tiempo en consideración y del sistema inercial desde en que estemos. La norma de la probabilidad se debe por tanto conservar, y esto es precisamente lo que no ocurre desde que elevamos al cuadrado en (6).

II.1. El problema.

Podemos ver el problema más claramente si procedemos a solucionar la ecuación (7) de Klein-Gordon.

Primero tengamos en cuenta que el resultado de multiplicar el 4-vector momento p con un vector posición x relativista es (en relatividad la coordenada 0 del vector posición es temporal y la coordenada 0 del vector momento es igual a la energía E):


La solución más simple a la ecuación (7) va a requerir de una función de onda plana, y se sabe que este tipo de soluciones suponen según la relación de Planck una energía:


es decir, que será equivalente (con ħ = 1) a la frecuencia angular de la función de onda. Sabemos además que la onda posee lo que se denomina un número de onda k, que será el número de veces que vibra una onda por unidad de distancia (magnitud de frecuencia):


siendo λi la longitud de onda sobre cada eje coordenado. De esta manera, y sabiendo que en unidades naturalizadas la energía E es igual a la frecuencia angular, entonces:


El numero de onda y el momento relativista (k = p) son pues equivalentes en sistemas de partículas libres. Una solución mediante ondas planas para (7) resulta ser entonces:

    (8)

Y para realizar la prueba vamos simplemente a tomar uno cualquiera de todos estos k números de onda posibles y a sustituir en (7):

 (9)

Pero como ya vimos antes que relativamente  k = p entonces al usar unidades naturales (con c = 1), tenemos que E² = p²c² + (mc²)² => E² = p² + m²=> E² - p² = m², y finalmente:


Tras factorizar en (9) teniendo en cuenta este hecho podemos ver que:


Es decir, que podemos concluir que como (8) es una combinación lineal de (9), y que como (9) es solución a la ecuación (7), (8) será también una solución de la ecuación de Klein-Gordon. La solución más general.

Pues bien, si sustituimos (8) en la ecuación de Schrödinger enseguida vemos que el segundo término hace que tal solución no satisfaga esta ecuación fundamental de la mecánica. La ecuación de Klein-Gordon obedece por tanto a la relatividad pero no a la mecánica cuántica.

II.2. La solución.

El problema de fondo es que la mecánica cuántica trata a la posición espacial como un operador, mientras que al tiempo lo trata como una etiqueta. La solución consiste en tratar ambas propiedades en igualdad de condiciones: en concreto se trata de no tratar más a x como un operador, sino como una etiqueta más. ¿Y cómo hacer ésto? ¡Pues mediante el uso de campos cuánticos

La partícula libre ya no será tratada como algo independiente en el espacio, sino como parte de un campo infinito. Así pues ya no trabajaremos con funciones de onda que dan la probabilidad de encontrar en el espacio-tiempo a la partícula libre, sino con campos cuánticos φ(x, t) que indican qué propiedad concreta existe en cierta posición del espacio-tiempo. Si la partícula por ejemplo es un electrón, ya no intentaremos rastrear la probable "trayectoria" de esa partícula mediante el uso de los operadores posición x y momento P de manera que tengamos un modo de calcular la probabilidad de que la partícula pasado cierto tiempo esté en cierto lugar, sino que partiremos por contra de un campo de electrones, aplicando a dicho campo los cálculos necesarios para conocer la dinámica del mismo (el modo en que dicho campo va evolucionando en el tiempo), de manera que en todo momento podamos calcular la probabilidad (relativista) de que en cualquier punto x del espacio tengamos un electrón. Y como (axiomáticamente) todas las partículas van a ser literalmente indistinguibles, la dinámica de este infinito campo de electrones nos irá dictando el modo de seguir en (x, t) el "rastro" de una partícula de cierto tipo.

De hecho, trataremos el concepto de partícula como una especie de excitación dentro de su campo concreto de materia, y tomaremos el concepto de "vacío" como aquel lugar dentro de un campo cuya energía posee el mínimo valor posible (i.e., las posiciones de ese campo donde no hay partículas). Es decir, que según la QFT existen tantos campos como partículas se conocen, siendo estos campos infinitos en extensión espacial y en los estados o valores para cada punto del propio campo (habiendo como poco una infinita suma lineal de estados energéticos posibles para cada punto del espacio-tiempo).

Si en cierto lugar de un campo, por ejemplo; no hay "partículas" (estando "vacío"), eso significa que realmente "sí" que hay "algo", pero que ese "algo" (el propio tejido espacial como dicen algunos autores) posee el estado fundamental de mínima energía (mínima vibración) posible (cuyo valor NO es cero). Y si por contra en cierto lugar del campo nos encontramos con un estado energético muy excitado, eso se entenderá como que en ese punto existe algo así como un paquete de ondas de partículas (del tipo del campo con el que tratemos). De hecho, cuanta más energía presente cierto lugar del campo, se entiende que es porque hay más "partículas" en dicha posición.

II.3. Entendiendo el concepto cuántico de campo.

Es muy importance hacer notar que la solución hallada (9) para la ecuación de Klein-Gordon (7) es equivalente a la suma infinita de lo que en física se conoce como oscilador armónico simpleEste hecho es absolutamente fundamental y ¡es lo que permite tratar a cualquier campo escalar libre como una colección infinitesimal (continua) de estos osciladores!

A modo de resumen mostramos de nuevo la solución general a la ecuación de Klein-Gordon


es la siguiente:

 (10)

Esta ecuación (10) es igual que la (8) que vimos antes, solo que haciendo infinitesimal (integrando) la suma de los modos de onda (que es equivalente al momento en este caso), y cambiando la notación de Ak por a(k), y B(dagger)k por a*(k). f(k) será una función tal que permita mantener la invarianza de Lorentz entre sistemas de referencia inercial.

Interpretemos la última ecuación de (10). Esta ecuación nos dice que cada punto x (x,y,z) del espacio del campo escalar libre va a contener una infinidad de modos k (que en este caso se puede entender como un modo de vibración de momento p que será igual a su energía). Cada modo k de (10) por tanto tendrá una energía equivalente a la que un oscilador armónico simple tendría con vibrando con esa misma frecuencia.

Esto significa que, por ejemplo; en un lugar del campo escalar x = (x, y, z) = (5.0, 2, 1.255) tendremos en un momento dado (t0) el valor devuelto por 

φ((5.0, 2, 1.255), t0) ∈ R (en el caso de campos escalares libres).

Un campo escalar libre en resumen posee un dominio infinito (todo el espacio y el tiempo) y debe devolver siempre un valor real calculado a partir de una suma infinita (integral) de la superposición de estados que tendría un oscilador armónico simple colocado en ese punto concreto x del espacio teniendo en cuenta cada posible modo de vibración del mismo (es decir, su número de onda o momento). 

II.4. Resumiendo.

Imagina que un cuarto de tu casa de volumen V, y tamaño LxLxL, está relleno de una especie de campo invisible. Cada punto infinitesimal del cuarto poseerá así un valor real relacionado con la energía que contiene ese minúsculo punto del espacio. Para conocer la suma de la energía total en el cuarto (el Hamiltoniano H), si se trata de un campo escalar libre (sin interacciones ni acoplamientos entre los osciladores), todo se resume a la energía cinética (al momento p en realidad) de cada pequeño lugar del cuarto. Pero como trabajamos con partículas minúsculas capaces de alcanzar velocidades cercanas a la de la luz, debemos mezclar relatividad especial y mecánica cuántica. Esto hace que la energía contenida en un espacio infinitesimal del cuarto venga expresada matemáticamente por el equivalente de una especie de superposición de todos los estados posibles k (o p) para un oscilador armónico simple colocado en ese lugar dx, teniendo en cuenta además que cada estado posible k(o p) va a poseer una serie n (n=1,2,3...) de estados de excitación posibles (interpretado directamente con el número de partículas n que hay en esa posición).

Si en cierto volumen V todos los armónicos se encuentran en el estado fundamental (no excitados), se supone entonces que no hay ninguna partícula ahí (entendiéndose como que el campo concreto se encuentra en un estado de "vacío cuántico").

Visto de otra manera:

Si en un lugar de volumen V del campo escalar libre nos encontramos (tras renormalizar) con cierta cantidad total de energía E, eso será interpretado con el hecho de que en V hay n partículas (indistinguibles y todas con igual masa m) cada una con su propia energía (relacionada la misma con el momento que posea la enésima partícula), de modo que todas esas energías individuales aportan al valor esperado de H(renormalizado).

Cada partícula en este tipo de campos va a poseer por tanto una energía equivalente a:


siendo en este tipo de campos como ya vimos k equivalente a su momento lineal p. La energía total por tanto (es decir, el Hamiltoniano H) de un sistema mecánico-cuántico de n partículas vendrá determinado por el operador Hamiltoniano (renormalizado) actuando sobre un estado (eigenestado) concreto de las n partículas:

(11)

Como vemos el observable (el valor real que se medirá en el laboratorio para la energía del campo) viene determinado por el valor de E(kn) para cada partícula n con momento k. 

II.5. Cuantificando el campo escalar libre.

Para poder entender (11) es necesario explicar paso a paso el proceso mediante el cual se transforma el campo escalar clásico de (10) en su versión cuántica. En realidad lo que vamos a hacer es "simplemente" proceder a promover a operador cuántico el campo escalar:

(12)

Es importante notar como hemos transformado el coeficiente complejo a(k) y a*(k) de (10) en operadores hermitianos, teniendo que 

y también que


por lo que la misma fórmula (12) se podría haber expresado utilizando:


de manera que si sustituimos de esta manera y hacemos además k = p podemos expresar el campo y su conjugado (derivando el campo escalar sobre el tiempo) como:

(13)

La primera línea de (13) es equivalente a (12), y la segunda no es más como hemos dicho que la derivada de (12) respecto al tiempo.

Así pues, ahora procedemos a describir lo que entendemos en este sistema como el operador Hamiltoniano H que nos va a ayudar a calcular la energía localizada en el campo. Para ello lo que vamos a hacer es proceder a la suma continua (integral) de la aportación de energía infinitesimal en todo el espacio d3x = dx·dy·dz. Procedemos por tanto a insertar en (7) el operador φ(x) de (13) (que resuelve la ecuación de Klein-Gordon) e integramos (sumamos) el resultado para todo el espacio.

Insertar (13) en (7) supone realizar el cuadrado de una derivada temporal sobre el campo (es decir, el conjugado del campo al cuadrado), y sumar además la derivada parcial sobre el resto de coordenadas junto con un último término que multiplica la masa al cuadrado con el campo al cuadrado. En total tendremos 3 términos infinitesimales que procedemos a su vez a integrar en todo el espacio:


Hemos sustituido para realizar el cálculo los valores descritos en (13). Hay que hacer notar el hecho de que han aparecido dos momentos infinitesimales dp y dq para tener en cuenta cada elevación al cuadrado supone la combinación de dos modos infinitos para el momento (que hemos llamado p y q).

Y teniendo en cuenta que E = ω y que 


finalmente terminamos con:

(14)

Tenemos un claro problema con esta expresión...¡la cantidad de energía del sistema sería siempre infinita! Conforme sumamos más y más valores de momentos p cada vez mayores la integral termina divergiendo. A parte de que la función delta del último término (que aparece debido a propiedades del conmutador de los operadores a y a(dagger)) irá también añadiendo un valor igual a 2 veces pi al cubo en cada proceso de la suma continua.

II.6. El estado de vacío cuántico.

Hemos visto que estamos trabajando con una infinidad de osciladores armónicos simples, y por lo tanto cada uno respetará el Hamiltoniano:


Así pues, los operadores de creación y aniquilación (a y a(dagger)) vendrán definidos por:


Cumpliéndose por tanto gracias a las propiedades de conmutación de los operadores x y p lo siguiente:


 pudiéndose reescribir el Hamiltoniano del armónico simple como:

(15)

Si partimos ahora de un eigenestado n y aplicamos el operador a(dagger) entonces:


Esto quiere decir que si aplicamos este operador a un eigenestado, alcanzamos otro eigenestado con energía igual a la de En sumándole un cuanto de momento. Por eso se le denomina operador de creación. Justo lo opuesto ocurre con a, por lo que se le llama operador de destrucción.

Si denominamos ahora como estado vacío |0> a aquel estado n sobre el cual al actuar el operador a devuelve un valor para la energía igual a cero a|n> = 0, entonces al aplicar ese estado sobre el Hamiltoniano (15) tendremos que tener en cuenta que a = 0 y por lo tanto (15) al actuar sobre |0> se reduce a:

esta es de hecho la energía fundamental (que como vemos NO es cero) del estado de vacío cuántico (también conocida como la oscilación del vació). Más tarde a partir de este estado de vacío, podemos ir aplicando el operador de creación para ir escalando niveles energéticos excitados para un oscilador:

Lo cual finalmente nos permite definir un nuevo operador N el cual nos va a indicar el número de cuántos de energía que posee cierto eigenestado:


Un armónico estará en un estado más excitado conforme el producto de los operadores a y a(dagger), que como sabemos dependen del momento y la posición, resuelvan en un valor n mayor. 

Nota: es muy importante señalar que en la QFT este hecho se simboliza con la idea de que conforme más energía existe en una posición del espacio, más energía posee el estado de superposición del oscilador, y por lo tanto mayor número N tendrá. Esto se relaciona directamente como ya hemos dicho antes con la idea de que en esa parte (x) excitada del campo escalar existen n partículas.

II.7. Renormalización de la energía del vació.

Vimos en (14) que la energía total H resultaba ser infinita para nuestro sistema, y por lo tanto hay que buscar una explicación y una solución para este hecho. 

Si aplicamos (14) al estado vacío |0>, y sabiendo que a|0> = 0, entonces de (14) sólo sobrevive el segundo término

(16)

Lo que viene a decir que el valor esperado para la energía en el vacío también es infinita. Y es lógico que así sea puesto que hemos acordado que nuestro campo escalar libre es en realidad una especie de superposición de infinitos armónicos simples oscilando, y arriba vimos que la energía esperada en el estado fundamental para el armónico simple en el vacío NO es cero. Así que tenemos una suma continua de energía que acaba divergiendo en el infinito.

Creo que merece aclarar antes de continuar con una imagen de la equivalencia propuesta por la QFT entre partículas y armónicos oscilando:



La equivalencia entre un sistema de osciladores y un sistema de bosones se puede entender mediante los dos sistemas de la imagen de arriba (el sistema 1 es el sistema visto como un conjunto de osciladores vibrando con frecuencia ω y con cierto nivel de excitación, y el sistema 2 -el de abajo- visto como un conjunto de partículas en movimiento):

- El primer sistema de la imagen está formado por dos osciladores armónicos cuánticos vibrando con distintas frecuencias (ωrojo > ωazul).
- El segundo sistema está formado por partículas. Son idénticas salvo por su energía: las rojas tienen más energía que las azules.

Ambos sistemas son equivalentes, entendiendo que las distintas frecuencias ωi del sistema 1 dan las posibles energías ℏωi para las partículas del sistema 2; y que el nivel de excitación del oscilador ωi en el sistema 1 es el número de partículas del sistema 2 con energía ℏωi.

Por ejemplo, en la imagen, el oscilador azul está en el 3er nivel de energía, mientras que el rojo está en el 2º; por otro lado, hay 3 partículas azules con energía ℏωazul y 2 rojas con ℏωrojo. La QFT lleva este ejemplo al extremo al hablar que cada infinitesimal posición x del campo posee un oscilador como los del sistema 1.

Pues bien, y este es el meollo de la cuestión: en el caso del vacío cuántico para cierto volumen V del campo se puede entender como que existirán ahí una serie infinita de estos armónicos con el nivel más básico de energía ℏω/2 pero los cuales como ya vimos se corresponde con un estado fundamental donde de el número cuántico N = a(dagger)·a = 0, lo que implica que no hay partícula alguna (n=0) en ese volumen de espacio (vacío).

Esquemáticamente:

1) Un campo cuántico supone dispersar en el espacio continuo una infinidad de osciladores armónicos acoplados (o desacoplados en el caso del campo escalar libre) cada uno con un modo o frecuencia de vibración determinado ω.

2) Esa frecuencia determinada ω para cada oscilador indica una aportación de energía ℏω.

3) Cada oscilador también posee una serie discretas n de niveles de excitación (modos de movimiento), con n = 0, 1, 2, ...


4) Cada uno de estos niveles energéticos posibles se van a relacionar con las partículas de la siguiente manera: el número de osciladores vibrando a frecuencia ωi en cierto nivel de excitación n, indicará el número de partículas existentes n que poseen una energía igual a ℏωi.

5) En el vacío todos los osciladores vibran en su nivel fundamental no excitado (n=0), por lo que se entiende que no hay partículas (n=0) que sumen con su energía al primer término del Hamiltoniano (14), pero aunque no haya partículas, todavía queda el segundo término de la ecuación mencionada, el cual hace las veces de una especie vibración básica o esencial (algunos hablan de vibración fundamental del propio tejido espacial) igual a ℏωi/2 que suma para cada modo ωi posible.

Por lo tanto el vacío de nuestro campo cuántico, a pesar de no poseer partículas, contiene "en teoría" una cantidad infinita de energía: primero porque el campo es infinito en extensión (ocupando todo el espacio) por lo que hay una infinidad de sistemas armónicos vibrando, y segundo porque cada uno de esos infinitos armónicos aporta como vemos en (16) una infinidad de energía de punto cero (cierta cantidad por cada modo de vibración ω posible para un oscilador armónico).

¿Y qué solución se encuentra a este problema con los infinitos?

Como evidentemente el vacío no puede contener un valor esperado de energía infinito, se procede matemáticamente a solucionar el problema.

En concreto el problema del infinito por la aportación continua de campo infinito en extensión se soluciona acotando el espacio donde se tiene en cuenta la medición a cierto volumen V del espacio. Esto simplemente se corresponde con dividir la energía por unidad de volumen, lo que nos da la densidad de energía en el vacío ( = E0 / V). De esta manera efectivamente borramos la aportación 2 pi cubo de la función delta en (14), pero aún tenemos el problema de la aportación infinita debida a que cada armónico produce una infinita suma continua (integral) sobre todo los modos de vibración posibles ω.

Para resolver este último problema con el infinito se procede a realizar una técnica matemática denominada como renormalización, que grosso modo lo único que hace es ¡ignorar conceptualmente esta energía infinita del vacío! Se da esta cantidad infinita como un hecho y se procede a restar dicho infinito de los cálculos en los que sí hay partículas en el campo.

Es decir, que cuando se va a calcular la energía total H contenida en cierto campo escalar libre, se procede a calcular su valor esperado usando (14), pero se hace restando el valor esperado de la energía del vacío que como sabemos es infinita. Y como el valor esperado mediante (14) es evidente que también diverge para cualquier sistema (incluso con partículas), el hecho de proceder a restar la infinita energía del vacío de la infinita energía del sistema con partículas da el resultado deseado de evitar el infinito.

Y sé que suena paradójico, y que conceptualmente es complicado de interpretar en el mundo físico, pero el caso es que cuando se resta al infinito del sistema con partículas el infinito del vacío, el resultado es una diferencia de energía...¡finita! Esto es consecuencia de que el infinito conteniendo partículas es energéticamente "mayor" que el infinito (esencial) del vacío, por lo que al restar resulta en que la diferencia finita observada representación algo así como la "verdadera" aportación energética de las partículas del sistema.

III. Conclusión.

La teoría cuántica de campos es conceptualmente apabullante y matemáticamente abrumadora. Y eso que la pequeña introducción que he realizado aquí no es más que la punta del iceberg (puesto que sólo hemos tratado con partículas de spin 0 y sin carga eléctrica que además no interaccionan y por lo tanto los armónicos están desacoplados). Para que os hagáis una idea, he tratado (por encima y obviando cosas para no sobrecargar) una pequeña parte (una décima parte quizás) de cualquier manual o libro sobre la QFT.

Me siento privilegiado de poder seguir (insisto, con mucho esfuerzo) esta teoría física, culmen del conocimiento humano hasta la fecha; pero en retrospectiva me queda un regusto amargo. Primero porque las matemáticas empiezan a tener tal nivel de abstracción que se pierde fácilmente la interpretación física real (geométrica) del mundo, y segundo porque esas mismas matemáticas muchas veces se "retuercen" de un modo que parece casi ad hoc para hacer que todo cuadre. Al menos yo lo veo así.

Visto lo visto estoy ahora mismo seguro que muy "pocas" personas entienden y conocen de manera formal la física moderna del modelo estándar. Es muy posible que ni siquiera una parte de los licenciados (o graduados) en ciencias físicas llegan a estudiarla en algún momento, y probablemente los que la estudien acaben aprendiendo sus matemáticas sin llegar a entender realmente a fondo el concepto físico que estas "ocultan".

Y es que el problema que yo veo no son las matemáticas en sí, que es cierto que son complejas y muy crípticas pero que con un poco de práctica cualquier matemático o físico puede llegar a entender y manejar, sino que con cada paso matemático que se da se emborrona todo de manera que finalmente hay casi que terminar tomando como un acto de fe lo que estas dicen e interpretar el resultado "como mejor se pueda".

Y es por esta razón que me he llevado tres semanas hasta que he "entendido" (lo mejor que he podido) la relación directa entre lo que la teoría matemática dice y la interpretación física (geométrica). Es decir, que sí, que las derivaciones matemáticas las entendí casi al momento (porque tengo ya mucho fondo), pero no llegaba a entender qué decían realmente todos esos resultados.

De hecho tuve que trabajar con 5 manuales a la vez para ir pillando ideas de aquí y de allá de esos breves textos que los autores meten entre ecuación y ecuación. Finalmente creo que tengo el concepto de campo escalar libre "controlado", el cual he intentado expresar aquí de manera introductoria (obviando, por cierto, muchas matemáticas por el camino).

Por cierto que si algún experto en el tema llega a caer en esta entrada del blog y descubre alguna errata espero que me perdone...estoy todavía atando cabos :P.

Un saludo, compañeros.