sábado, 7 de febrero de 2015

Las matemáticas de la conducta

"You start with a random clump of atoms, and if you shine light on it for long enough, it should not be so surprising that you get a plant."
Jeremy England (2014), interview commentary with Natalie Wolchover


Jeremy England
Dr. Jeremy England, físico del MIT(Massachusetts Institute of Technology)
Si las ideas del equipo liderado por Jeremy England en el MIT se confirman, traerá serias implicaciones en terrenos más allá del origen y desarrollo de la vida. En este artículo, voy a hablar de una de tales implicaciones secundarias: el hecho de que toda la conducta animal, incluida la conducta humana, estarían subordinadas a la tarea de disipar energía.

En otras entradas previas, ya he explicado a fondo mediante un amplio desarrollo matemático y con bastantes ejemplos prácticos, todo lo que este equipo propone. Para entender en condiciones el contenido de esta entrada es requisito previo, al menos, tener una idea de lo que estos autores hablan; por lo que voy a comenzar haciendo un repaso de toda la base teórica propuesta para pasar, posteriormente, a detallar nuevas consecuencias que se pueden deducir de este supuesto:


Resumen esquemático del trabajo de Jeremy England:

Dado un supuesto sistema, el cual cumple con la condición de ser:

1) Un gran sistema lejos del equilibrio térmico con abundante y variada cantidad de materia (como por ejemplo, la Tierra).
2) Que posee una fuente constante de energía externa entrando en dicho sistema (como es el caso del Sol).
3) Y que posee también un gran baño térmico donde disipar calor (como es el caso de la atmósfera o el océano en la Tierra).

La teoría matemática dice que, en un sistema tal, se producirá,  inmediata y espontáneamente, una tendencia a aumentar la entropía mediante tres alternativas diferentes:

1) Siguiendo la tendencia natural que hace que la evolución de un sistema tienda hacia aquellos estados más desordenados, debido a que existen muchas más posibilidades de estados desordenados que ordenados. 

El ejemplo típico, es el supuesto de lanzar 40 monedas al aire y ver cuántas salen caras y cuántas cruz. El sistema de las 40 monedas en el suelo sigue una combinación de caras o cruces y, si se estudia la distribución de combinaciones, se puede comprobar como las posibilidades donde las 40 monedas estén ordenadas de modo que sean en su mayoría cara o cruz, son mucho menores que las probabilidades donde exista un completo desorden de monedas.

Sólo hay, por ejemplo, dos configuraciones donde al caer las 40 monedas se produce un patrón donde una moneda sea cara y la siguiente cruz, y que luego continué ese patrón cara-cruz. Y sólo hay una configuración posible con todas las monedas caras o todas cruz. El sistema tiende, pues, espontáneamente, a seguir la evolución con más caminos favorables; y este es el caso de la distribución más numerosa que engloba al mayoritario conjunto de estados con las monedas distribuidas azarosamente en caras y cruces sin seguir ningún patrón ordenado. Se tiende, por lo tanto, a evolucionar espontáneamente hacia el desorden y contra la aparición de patrones.

Esta es la explicación típica que ofrece la segunda ley de la termodinámica clásica, la cual sólo aplica en sistemas en equilibrio térmico. Sin embargo, en sistemas lejos del equilibrio (como el que estamos estudiando, y del cual la Tierra es un ejemplo), hay otros dos modos en que un aumento de entropía puede ocurrir en el sistema:

2) Siguiendo la tendencia natural que hace que la evolución de un sistema tienda hacia aquellos estados más reversibles. Es decir; siguiendo aquellos trayectos más reversibles, que son los caminos más accesibles a un estado inicial determinado.

Un ejemplo imaginario muy sencillo de entender es el siguiente:

Imaginemos que partimos de Cádiz, y que hay 50 carreteras distintas que nos llevan a Madrid, pero que sólo hay 1 carretera que parte de Cádiz y nos lleva a Valencia. Como la elección de una carretera determinada es azarosa (azar que es de aplicar en el sentido de que el movimiento molecular es caótico), es más fácil que terminemos en Madrid que en Valencia, puesto que Madrid es más accesible. Hay más formas de llegar a Madrid que a Valencia.

Es decir; que Jeremy England afirma que, en un sistema lejos del equilibrio térmico, la evolución del sistema se producirá hacia sistemas más accesibles y reversibles. De nuevo, se evitan los patrones o los sistemas ordenados con esta tendencia natural, puesto que un estado  muy reversible o muy accesible, requiere de gran cantidad de posibilidades de ser alcanzado, mientras que un estado ordenado o con un patrón establecido, debe seguir un camino (o unos pocos caminos) muy concretos para ser alcanzado; lo que va en contra de la probabilidad dentro del caos que conforma la evolución molecular de estos sistemas. Se evoluciona espontáneamente, pues, hacia la accesibilidad y la reversibilidad, lo que supone un aumento probable del desorden (aumento de entropía).

3) Siguiendo la tendencia natural que hace que la evolución de un sistema tienda hacia aquellos estados que más y mejor disipan calor. Las matemática así lo dicen: cuanto más calor disipa un estado determinado, más aumenta la entropía del sistema (lejos del equilibrio), por lo que será un estado con buenas probabilidades de ser alcanzado. 

Ya lo vimos en el ejemplo de mi entrada anterior sobre este tema. Si se fijan las condiciones, de modo que los puntos 1) y 2) que hemos estudiado antes, queden fijos de manera que no puedan influir en la evolución del sistema, el que determinará la evolución será este punto 3). Es decir; que fijados 1) y 2), el sistema va a tender espontáneamente hacia estados donde se disipe cada vez más calor.

Imaginemos que partimos de Cádiz, y sólo hay dos carreteras, una que lleva a Madrid y otra que lleva a Valencia. En este caso, la condición 1) es irrelevante: sería el equivalente a lanzar 1 única moneda al aire, o sale cara o sale cruz ( ln 1 = 0). La condición 2) también es irrelevante, ya que ambas ciudades son igual de accesibles (una única carretera para cada estado).

La cuestión es que, según la regla 3), si para ir a Madrid se necesita consumir 100 J de energía, y para ir a Valencia, solo 50 J; el sistema va a tender espontáneamente a realizar el trabajo necesario para conseguir evolucionar hacia el estado final en el que sea necesario disipar el mayor calor posible. El sistema va a tender siempre a alcanzar el estado que requiera un mayor consumo de energía.

Si imaginamos, ahora, que hay 3 estados de destino posibles, los cuales necesitan respectivamente de 100 J, 50 J, y 10 J, para ser alcanzados, el sistema automáticamente evolucionaría de modo que cada vez pueda alcanzar objetivos más disipativos. ¡Y es precisamente esta tendencia natural el origen de todo proceso evolutivo en el universo (incluida la evolución biológica)! Todo proceso evolutivo estaría guiado por esta natural propensión de los sistemas lejos del equilibrio térmico hacia la optimización en su capacidad para disipar calor (es decir; en su eficiencia consumiendo cada vez más energía y realizando más trabajo con ella). Evidentemente, cuanto más calor se disipe, más desorden se genera, lo que implica nuevamente un aumento de entropía.

¿Cuál es la explicación de que esta tercera regla 3) ocurra?

Los dos puntos anteriores 1) y 2), son fácilmente entendibles de un modo meramente intuitivo y lógico (utilizando sencillos ejemplos como los que yo he propuesto, que son bastante visuales), sin embargo, este tercer punto requiere de un estudio más complejo para comprender su causa. El paper original contiene una explicación muy formal, que yo intenté desarrollar un poco más en una entrada de mi blog; pero, en mi opinión, es un ejemplo poco claro visualmente. Voy a intentar explicar a continuación este punto con un ejemplo, menos formal, pero más intuitivo:

La probabilidad pasar de un microestado a otro por parte de una partícula, está determinado en parte, por una barrera de activación, que viene a ser algo así como la energía necesaria para alcanzar un estado determinado. Entre cada par de microestados i, j; la barrera de activación va a tener un valor independiente entre ellos, pero dependiente en ciertos casos, del valor de la fuerza externa en un momento dado t. Es decir; que la probabilidad de pasar de i a j, viene determinada por la cantidad de energía necesaria para poder alcanzar j: a mayor barrera, menor probabilidad.

Si el valor o altura de estas barreras fuesen constantes en el tiempo, no tendría sentido la propuesta 3), ya que el efecto sería justo el contrario, habría una tendencia hacia estados fáciles de alcanzar (que requiriesen poca energía para ser alcanzados), sin embargo, las matemáticas del trabajo dicen lo contrario, y esto se debe a que los estados energéticos, y las barreras de activación para ser alcanzados, varían con el tiempo y de un modo dependiente a la fuente de energía externa: la barrera de activación puede, pues, variar en función del tiempo (Bij(t)).

La probabilidad entre cada par de estados i,j, va a ir variando, por lo tanto, en el tiempo; según sea la cantidad, el tipo, y el modo en que se reciba la fuerza procedente de la energía externa en cada momento determinado. Esta variación en el tiempo, va a depender de varios detalles descritos por la física de partícula y la mecánica estadística; pero nos vale con la idea de que se puede producir una variación en la probabilidad con el tiempo, y de que dicha variación va a estar determinada, entre otras cosas, por el modo en que el microsistema i se vea o no ayudado o impulsado, en un momento determinado, para superar la barrera:

Es decir; que la variación de la barrera en el tiempo (la variación de Bij(t)), puede dar lugar, en ciertos instantes, a una bajada en la altura de la barrera de activación, de modo que la probabilidad de alcanzar j sea mayor que la de otras trayectorias alternativas.

Hasta aquí perfecto. Ahora bien; ¿si se baja la barrera de activación, cómo es que se disipa más calor? La respuesta es la siguiente:

Los estados energéticos i,j también pueden variar con el tiempo (Ei(t)), lo cual influye en el calor disipado, que no es más que el incremente de calor producido al pasar de i a j (Calor generado = Ej - Ei). Y la cuestión es que; la cantidad, tipo, y modo de la fuerza presente que consigue bajar al máximo la barrera de activación, puede al mismo tiempo, llevar al mínimo el estado energético destino j, lo cual lleva a que la diferencia entre Ej (destino) y Ei (origen) sea máxima, lo que representa una gran disipación de calor en el proceso de cambio.

Es decir, que bajo ciertas circunstancias, puede producirse una especie de acoplamiento entre una alta probabilidad de alcanzar un estado, que sea de bajo potencial energético. Y la teoría dice que un microsistema capaz de presentar este acoplamiento; es decir; un microsistema cuyas propiedades internas favorezcan la aparición de este tipo acoplamiento relacionado con una fuente de energía externa particular, se verá favorecido por la termodinámica, puesto que será un eficiente productor de entropía (será un buen disipador de calor, es decir; un buen generador de desorden).

Todo esto sigue sin ser muy visual. Vamos a intentar poner un símil que lo deje más claro:

Imaginemos que partimos de la ciudad de Cádiz, y que tenemos un presupuesto para viajar a otra ciudad, y volver luego de nuevo a Cadíz (con ese dinero, hay que pagar gasolina, peajes, pensiones, averías, etc.). La clave, es que nos imponen, además, la tendencia a que nos sobre el máximo dinero posible una vez terminemos el recorrido.

Como destino, tenemos a nuestro alcance muchas ciudades; cada una con un coste distinto para ser alcanzada: algunas tienen peaje en el camino, otras tienen pensiones más caras, otras están más lejos y requieren más gasto en gasolina, etc. Es decir; que cada ciudad requiere de un gasto fijo determinado para su acceso desde Cádiz (el coste del camino de ida y de vuelta es el mismo).

Si este gasto es un valor fijo para cada ciudad, y pretendemos que nos sobre el máximo dinero posible, nos moveremos sin duda hacia la ciudad que estimemos más accesible (más barata de alcanzar). Si colocamos, ahora, a muchas personas en Cádiz, y repetimos este ejemplo un gran número de veces; observaremos que comienza a aparecer un patrón (o distribución) donde el conjunto de ciudades más baratas de alcanzar, son mucho más frecuentemente elegidas que aquellas ciudades más caras; las cuales serán tanto menos seleccionadas cuanto más caras sean de alcanzar (puesto que cuanto más cara sea, más evidente será que no son viables como candidatas para maximizar el ahorro, y menos personas lo intentarán con ellas).

Por lo tanto, si el coste de acceso de cada ciudad es constante en el tiempo, la probabilidad de que cierta persona elija un destino concreto, viene determinado por esta distribución de probabilidad que acabamos de describir. Si además catalogamos ciertos subconjuntos de ciudades según alguna propiedad que tengan en común, podremos afirmar cosas como, por ejemplo, que el conjunto de ciudades costeras suele ser más barato de alcanzar de media que las ciudades de montaña. Si este fuera el caso; la probabilidad de cierta ciudad, podría ser determinada simplemente sabiendo si es una ciudad de costa o de montaña. La probabilidad de que alguien pretenda ahorrar visitando un remoto pueblo perdido entre montañas es pues, casi nula; por lo que será un fenómeno imposible de observar en la práctica.

Pues este ejemplo, que parece tan evidente, no es ni más ni menos, que la descripción de los dos puntos primeros que hemos estudiado 1) y 2). Y, si no hubiera ninguna fuente de energía externa dirigiendo el comportamiento del sistema, estos dos puntos serían los únicos que determinarían el modo en que el sistema iría cambiando en el tiempo.

Sin embargo, estamos estudiando sistemas lejos del equilibrio térmico y dirigidos por una fuente de energía externa (como el Sol en el caso de la Tierra), lo cual, en el ejemplo visual que estamos contemplando, significa lo siguiente:

Hasta este momento, en nuestro ejemplo hemos tomado el coste de llegar a cada ciudad como algo constante (gasto de gasolina, longitud de la carretera, coste del peaje si lo hay, etc.) pero, en sistemas dirigidos, esto no es siempre así. Podemos imaginar este caso suponiendo que en determinados momentos, algunas ciudades hacen descuentos especiales a los turistas, o, lo que es lo mismo, que en determinadas épocas, algunas ciudades (las costeras, por ejemplo) ven encarecidos sus costes debido, por ejemplo, a la temporada turística (en verano). Esto supone una posible oscilación con el tiempo respecto del coste de viajar a una determinada ciudad.

Cuando el Sol aprieta, las ciudades costeras suben precios, lo que altera su accesibilidad; mientras que las ciudades de montaña hacen por el contrario descuentos en esta época del año. De este modo, la energía externa (el Sol) va a dirigir el sistema, en el sentido de que consigue variar, con el tiempo, la accesibilidad de las distintas ciudades.

Si colocamos ahora muchos coches que partan desde Cádiz, la distribución en la probabilidad de que una ciudad concreta sea visitada (de modo que se ahorre el máximo), ya no depende sólo de lo lejos que esté o del número de peajes, sino que también va a depender de la época del año en que estemos. En primavera y otoño, este factor temporal será menos determinante (predominando los 2 primeros factores), mientras que en invierno y verano habrá que tener muy en cuenta este factor externo.

Pues bien, las matemáticas nos dicen que, un sistema dirigido de esta forma descrita por una fuente de energía externa, va a tender a alcanzar los estados que más calor disipen; es decir; aquellos estados cuyo potencial energético final sea el menor posible respecto del inicial, ya que esto supone una gran diferencia energética que se habrá disipado en forma de calor en el proceso. Y esto es así, porque de este modo se consigue un gran aumento de entropía, que es lo que el Universo requiere por ley.

En nuestro ejemplo de las ciudades, este máxima disipación, se produce en aquellas ciudades que, no sólo se vuelven más accesibles abaratando el coste del viaje (peaje gratis en ciertas épocas, y descuento en gasolina), sino que, además, también premian al viajero por ejemplo con un cheque regalo a su llegada (o con precios baratos en sus servicios). Algunas ciudades sólo abaratarán el viaje, y otras sólo darán un incentivo con un regalo, pero; serán aquellas ciudades que presenten un acoplamiento de ambas circunstancias (que abaraten el viaje y que regalen un cheque al turista o que bajen los precios de sus servicios al mismo tiempo) las que consigan la mejor probabilidad para ser visitadas de entre sus rivales, ya que son las mejores candidatas para que el viajante ahorre lo máximo posible.

Lo más importante de todo esto, es comprender que, por motivos temporales, y gracias a un eficiente acoplamiento entre una fuente de energía externa y las propiedades de un microestado determinado, es posible que, estados poco accesibles, ordenados y complejos, sean alcanzados con una probabilidad mucho mayor, que la que tendrían sin ese acoplamiento.

Pero, ¿por qué es necesario este acoplamiento y no vale simplemente con que la barrera de activación sea menor? Pues por lo siguiente :


Los estudios de Crooks[2] llevaron a Jeremy a alcanzar la fórmula anterior, la cual nos indica que la evolución de los estados de un microsistema tienden con el tiempo a ser tanto más probable, cuanto más calor disipen. Existe una relación natural en sistemas lejos del equilibrio entre la irreversibilidad, y el calor disipado de media. Cualquier fenómeno complejo y organizado es irreversible por definición; y cuanto más irreversible es un fenómeno, más calor se requiere disipar para ser alcanzado con cierta probabilidad. Imaginemos una pesada piedra que baja rodando una montaña tras recibir el empujón de una fuerza externa que la ayuda previamente a subir a la cima. Una vez la piedra ha llegado a la meseta, es muy poco probable (imposible en la práctica) que espontáneamente siga el camino inverso en el mismo periodo de tiempo. Se ha producido así, un fenómeno muy irreversible. Pero esta irreversibilidad presupone, por ley, una gran disipación de calor medio (un gran aumento de entropía). Cuanto más irreversible y complejo es un fenómeno, más calor debe disiparse de media.

Visto de otro modo: si una trayectoria microscópica disipa poco calor de media, esto significa que es un proceso fácilmente reversible, lo cual hace que tales trayectorias no puedan dar lugar a ninguna complejidad (ya que la reversibilidad impide que se produzcan patrones u organizaciones en el tiempo, puesto que ocurren constantemente procesos de retroceso que anulan cualquier avance previo; lo cual impide en la práctica que surjan de ahí fenómenos macroscópicos ordenados). Pero si, gracias a un ajuste con la fuente de energía externa, comienzan espontáneamente a seguirse trayectorias irreversibles (que permitan fenómenos ordenados y complejos), OBLIGATORIAMENTE debe ser a expensas de disipar de media una gran cantidad de calor: y cuanto más complejo e irreversible sea el fenómeno, más calor debe de expelerse en el proceso. En el ejemplo de la piedra que baja de la cima, se disipará más calor, cuanto más alta esté la cima de la meseta (puesto que una mayor diferencia, implica una mayor irreversibilidad, y ésta implica un mayor calor disipado).


Por lo tanto, y para terminar con este punto: un acoplamiento con la fuente externa, de manera que aumente la accesibilidad (que baje la barrera de activación), y que dicha accesibilidad extra coincida con un potencial energético de destino bajo, es un requisito físico de modo que se puedan alcanzar fenómenos muy complejos con una probabilidad abordable. Además, cuanto más complejo sea el fenómeno, mayor acoplamiento será necesario de modo que se pueda generar el calor suficiente para aumentar la probabilidad hasta cotas viables.

Todo esto, sin embargo, no significa que la complejidad y el orden sea algo fácil de acontecer (y observar), sino que sólo nos indica que la probabilidad de que tales fenómenos ocurran, se puede mejorar muchísimo si se consigue el acoplamiento adecuado. Es decir; que este acoplamiento no significa, siguiendo con nuestro ejemplo, que sea fácil conseguir que los viajeros tomen el pueblo perdido en la montaña del que ya hablamos como un destino viable para lograr el mayor ahorro posible, pero sí significa que, si el acoplamiento es lo suficientemente atractivo (eficiente), la probabilidad puede pasar de imposible en la práctica, a tener cierto peso si se espera el tiempo suficiente.

El mérito del trabajo:

El mérito real detrás de todo el trabajo del equipo de Jeremy England, consiste en haber conseguido formalizar matemáticamente, y exclusivamente deduciendo a partir de una base física ya establecida (termodinámica y mecánica estadística) todo lo que acabamos de hablar. Todo este asunto (en sistemas lejos del equilibrio térmico) ya había sido tratado anteriormente, de un modo exclusivamente intuitivo y muy vago por diversos autores; pero ya no se trata de meras especulaciones, sino que ahora disponemos de una firme teoría física detrás de esta argumentación. Si la teoría se confirma experimentalmente (están en ello), no habrá más remedio que aceptar todas sus consecuencias (de las que hablaremos a continuación), o renegar literalmente de los preceptos físicos usados de base (lo que complicado, dado el nivel de corroboración ya conseguido).

La competición entre las 3 alternativas descritas:

El Universo requiere de un aumento de entropía constante. Y hemos visto que, en los sistemas lejos del equilibrio térmico como la Tierra, hay tres modos en que este aumento puede ocurrir, lo cual determina, al mismo tiempo, la distribución en la probabilidad de observar un determinado fenómeno macroscópico. Y esto es así, porque la teoría matemática que estudiamos nos dice que la probabilidad de ocurrencia de cualquier estado macroscópico, será mayor, cuanto mayor sea el valor de los 3 términos que hemos examinado.

Sin embargo, puede ocurrir, dada la oportunidad material y energética, que alguno de los términos domine sobre los otros dos en la ocurrencia de un fenómeno determinado, lo cual lleva, si el que domina es el tercer término, a que acontezcan fenómenos que pueden parecer paradójicos desde el punto de vista termodinámico clásico (en sistemas en equilibrio), pero que son lógicamente explicados en esta nueva teoría para sistemas lejos del equilibrio (como el que acontece aquí en la Tierra). Las matemáticas de esta nueva teoría termodinámica, la cual ha sido derivada completamente de teorías previas establecidas y aceptadas en el campo de la termodinámicas y la mecánica estadística, afirman que, dada la oportunidad material y energética, es sólo cuestión de tiempo que en sistemas de este tipo, surjan estructuras materiales macroscópicas altamente ordenadas y poco accesibles (lo que implica un primer y segundo término muy bajo), pero cuya alta eficiencia en su capacidad para disipar calor mediante la realización de trabajo, hacen que el tercer término sea lo suficientemente grande como para sobreponerse al bajo valor de los dos primeros; de este modo, dicha estructura compleja pero eficiente disipadora, tendrá una probabilidad aceptable de ocurrir en un espacio de tiempo abordable (cientos de millones de años). Pero hay que tener en cuenta que, sin esta eficiente capacidad disipativa, una estructura material tan ordenada sería tan improbable, que no habría literalmente la posibilidad de observar tal fenómeno macroscópico en cientos de miles de millones de años. Es decir, que lo que una alta eficiencia para disipar calor (o, lo que es lo mismo, un buen rendimiento en el uso de la energía disponible para realizar trabajo mecánico) hace, es simplemente aumentar la probabilidad de observar macroscópicamente una alta organización estructural de baja accesibilidad, pasando de cientos de miles de millones de años, a "sólo" algunos millones.

Es un hecho que las propiedades materiales (cantidad y tipo de átomos y moléculas) de algunos sistemas lejos del equilibrio termodinámico (como lo son la Tierra, Marte, etc.), les confieren una diferencia en su capacidad para poder utilizar la energía externa que reciben (del Sol, en nuestro caso) para realizar trabajo; por lo que algunos sistemas tendrán un potencial mayor que otros para albergar estructuras materiales muy organizadas y eficientes en menor cantidad de tiempo. Esto quiere decir que, aunque existan muchos planetas que cumplan las premisas de ser sistemas lejos del equilibrio con una fuente de energía externa y un baño térmico donde disipar, las características de los materiales (la cantidad y tipo de átomos y moléculas que constituyan ese planeta), harán que la oportunidad de que el tercer término consiga sobreponerse a un bajo valor en los dos primeros sea diferente. A mayor potencial, mayor oportunidad y probabilidad, lo que implica un menor tiempo de espera hasta que un fenómeno tal acontezca.

La estructura de los copos de nieve, las dunas de arena, los huracanes,
los remolinos en los fluidos, etc., podrían ser todos ejemplos de
adaptación espontánea dirigida hacia una eficiente disipación de calor.
También hay que tener en cuenta los diferentes modos en que este tercer término puede dominar. Un tornado, es un fenómeno altamente ordenado del tipo que estamos estudiando; y su probabilidad de ocurrencia es mucho mayor que la de la formación del ADN (que es otra estructura altamente ordenada y con eficiencia disipativa). Ambas disipan calor de modo eficiente, pero el ADN requiere más complejidad (un menor valor para los primeros dos términos) para suceder.

Por ese modo, es algo común ver estructuras muy ordenadas en muchos planetas del tipo de tornados, dunas de arena, remolinos en fluidos, etc; pero, hasta ahora, no hemos observado estructuras mucho más complejas y ordenadas, como es el caso de las estructuras biológicas que vemos aquí en la Tierra. En algunos casos, este fenómeno tan sumamente complejo será sólo cuestión de tiempo que ocurra, y en otros; el potencial material del planeta será tan poco favorable que haría falta esperar un periodo de tiempo astronómico e inabordable (en la práctica se podría hablar de imposibilidad).

Evolución biológica.

En la Tierra se cumple, desde hace miles de millones de años, las condiciones de ser un sistema lejos del equilibrio térmico, con una fuente continua de energía externa entrando en el sistema(el Sol), y con una fuente o baño térmico hacia donde disipar calor (el océano y la atmósfera). Además, el potencial del material disponible (la cantidad y tipo de átomos y moléculas disponibles) es favorable para alcanzar una altísima eficiencia disipativa mediante el uso de la energía del Sol para realizar trabajo. Y es este alto potencial disipativo, el que hizo posible que, en unos pocos cientos de millones de años, apareciese espontáneamente estructuras muy complejas y autorreplicantes.

La autorreplicación aparece, dado el momento y la oportunidad, debido al modo en que matemáticamente está constituido el tercer término del que hemos hablado 3). Este término se divide en dos: la suma del calor disipado de media entre todos los caminos posibles que llevan a un estado destino, y la resta de la desviación típica en la cantidad de calor generado por todos esos caminos posibles (las fluctuaciones perjudican en la probabilidad de que un estado destino sea alcanzado). Un eficiente método para que una estructura altamente compleja consiga mantener el tercer término de la ecuación en un valor muy alto, consiste en reducir la fluctuación (la desviación de la media del calor generado); y el mejor modo de reducir la fluctuación, y aún así generar el calor suficiente para sobreponerse al bajo valor relativo de los dos primeros términos, es la copia o replicación de una estructura material (suprimiendo así fluctuaciones) y  consiguiendo además en el proceso de copia, que cada vez se produzca más energía, puesto que la estructura a copiar va a ser también una eficiente disipadora de calor (para aumentar en lo posible el calor medio disipado).

Eso ocurrió en la Tierra con la estructura de ADN. El ADN es una estructura molecular compleja, pero con una enorme capacidad para generar calor. Y su capacidad intrínseca para hacer copias exactas de si misma, hace que la fluctuación de calor sea mínima, y que la cantidad de calor disipado siga una proporción exponencial. Probablemente, la aparición del ADN como tal, siguió un proceso evolutivo previo, donde otras estructuras materiales previas consiguieron cierta capacidad replicativa, aconteciendo una selección espontánea de las estructuras que mejor se copiaban y que más eficientemente disipaban calor en su formación y mantenimiento.

Aparecen las células.

La replicación molecular es un gran paso hacia la complejidad (baja entropía o alto orden) en aras de la eficiencia para utilizar la energía externa del Sol para realizar un trabajo mecánico que disipe una gran cantidad de calor hacia la atmósfera o el océano. Sin embargo, una vez iniciado el proceso, la teoría de Jeremy England apunta a que los procesos macroscópicos evolucionarán, con mayor probabilidad, hacia estados que disipen más calor que el anterior. Esto es así puesto que, llegado el momento en que el tercer término domina con claridad a los otros dos, la evolución de tales microsistemas va a estar siempre ya dominada por dicho tercer término (puesto que son poco reversibles).

Si tenemos un sistema constituido por estructuras materiales muy complejas; como por ejemplo, un charco de agua lleno de estructuras replicativas, sabemos que es poco probable que todas esas estructuras complejas se disuelvan a la vez aumentando los dos primeros términos lo suficiente. Esto es así, puesto que el camino que ha llevado a toda esa complejidad es poco accesible; o, lo que es lo mismo, es poco reversible estadísticamente. Es decir, que una vez iniciado el proceso, ya no hay vuelta atrás, la evolución biológica está en marcha.

Y como no es ya viable en estos casos una vuelta atrás donde vuelvan a dominar los dos primeros términos en exclusiva, la teoría nos dice que el sistema en estudio va a evolucionar o tender hacia estados cada vez más eficientes en la disipación de calor térmico. Esto supone pequeñas mejoras durante un tiempo, pero puede también suponer grandes saltos evolutivos en otras. Cada gran salto evolutivo supone también un paso hacia la complejidad y contra la reversibilidad del proceso, por lo que, una vez acontecido, es poco probable una vuelta atrás fortuita.

Esto mismo debió de ocurrir con la aparición de la primera célula (o con las estructuras precelulares). La formación evolutiva de complejas maquinas materiales, altamente efectivas en el uso de la energía del Sol, y favorecidas por la baja fluctuación que supone contener las instrucciones (o la información) para su construcción en moléculas replicativas de ADN, fueron haciendo aparición en la Tierra. Y cada nueva mejora acontecida espontáneamente en dicha máquina, era un pequeño salto en favor de la disipación de calor.

Aparecen los organismos multicelulares.

Pronto acontece un nuevo salto en la eficiencia disipativa. Algunas de estas máquinas celulares, por puro azar en los cambios ocurridos en la replicación de sus instrucciones de formación, comienzan a presentar, paulatinamente, una buena afinidad unas por otras. Esta afinidad, supone en efecto, una mayor complejidad, pero también un nuevo salto hacia la mejora en la capacidad para realizar trabajo y generar calor. En pocas palabras: una colección de células cooperando, requiere mayor complejidad en su creación y mantenimiento, pero acarrea también una mucho mayor capacidad disipativa; puesto que la cooperación asegura un mayor tiempo de existencia, y una mayor probabilidad para hacer más y más copias durante ese tiempo.

Y así continuó el camino evolutivo. Las estructuras eran cada vez más complejas, y cada vez disipaban más energía en su construcción, mantenimiento y replicación. Es importante hacer notar, que esta misma tendencia continúa hoy día.

Aparecen las plantas y los animales.

Con el paso del tiempo, la aparición de estructuras multicelulares capaces de llevar a cabo la fotosíntesis fue factible, y eso supuso un nuevo salto en cuanto a la eficiencia disipativa. Más tarde, esto hizo viable la aparición de estructuras materiales aún más complejas, las cuales harían uso de las anteriores para metabolizar (alimentarse de) energía con una alta eficiencia. La aparición del reino animal, de este modo, supuso un gran salto evolutivo en favor de una mayor disipación de calor, puesto que el movimiento organizado y continuado de una estructura material tan compleja, supone el uso de una enorme cantidad de energía en forma de trabajo mecánico. Los animales consumen muchas plantas (o consumen otros animales los cuales sí consumen muchas plantas), y eso es un gran salto en pos del consumo energético: son más complejos de construir y de mantener, y su movimiento es muy costoso energéticamente hablando.

Y es muy importante comprender que, cuando alguna de estas estructuras, por algún motivo, es superada en capacidad disipativa por otras de su entorno, estas últimas, al ser más eficientes consumidoras de energía, tienden a reemplazar a la primera. Este proceso, por supuesto espontáneo, constituye lo que se ha dado a llamar desde la biología el proceso por selección natural, aunque ahora podemos comprobar qué es realmente lo que mueve a un nivel más básico tal proceso: la optimización en el uso de la energía disponible.

Aparece la conducta.

Llega un punto en que, las estructuras animales, para poder mejorar el consumo de energía, necesitan "aprender" o "prever" el comportamiento futuro del entorno. No vale sólo con alimentarse de otras estructuras, es necesario saber cómo y donde encontrar esas estructuras. Además, es necesario "prever", que es "bueno" o "malo" para poder cumplir la tarea disipativa eficientemente: hay que "prever" las circunstancias que pueden llevar a la destrucción de la propia estructura y "aprender" a evitarlo.

Pongo todas esas comillas, porque el uso de esas palabras tan comunes en biología o psicología pueden llevar a engaño. No hay ningún objetivo o fin racional en todo el proceso que estamos comentando. Dada la aparición espontánea de los animales cuando la oportunidad fue la adecuada, y puesto que este suceso suponía un gran aumento en el calor disipado medio, la aparición de la conducta fue también un acto igualmente espontáneo y automático, totalmente determinado por esa misma tendencia física que consiste en aumentar la energía media utilizada para generar calor mediante la realización de trabajo, y para disminuir, en lo posible, las fluctuaciones en el calor disipado.

Y no hay más explicación. Cualquier otra finalidad, o supuesto objetivo, en la conducta, no es más que una abstracción ideada por la mente humana. Realmente no existe eso que identificamos por especie, ni por individuo: todo lo que hay, son trillones de diferentes partículas interactuando dentro de un sistema físico lejos del equilibrio térmico, y dirigido por una fuente de energía externa continua. La teoría matemática de Jeremy England explica cada uno de los fenómenos macroscópicos acontecidos en tales sistemas, y podemos comprobar que todas esas cualidades que definimos como pertenecientes a la vida, han ocurrido simplemente gracias a una tendencia natural que permite la aparición de estructuras de gran complejidad estructural a expensas de generar una enorme cantidad de calor en el proceso. Y nada más.

Aparece el hombre.

Y, por fin, llegamos al quid de la cuestión. Mediante este mismo proceso que hemos descrito, fue sólo cuestión de tiempo, una vez dada la oportunidad, que aconteciera la aparición de un ser consciente. El hombre, en cierto sentido, es un caso muy especial en la historia evolutiva. Su complejidad estructural y conductual es enorme, y eso debe llevar aparejado un inmenso potencial para consumir energía, de modo que tal complejidad sea viable.

Es más, conforme el genero homo se diferencia y avanza hacia lo que denominamos homo sapiens, se ha producido un aumento constante en la cantidad de energía utilizada por persona y día. No se trata sólo de los 9000 kJ consumidos de media para mantener nuestros procesos corporales y estructurales, sino que, nuestra complejidad social y conductual, hacen que necesitemos y dediquemos una cantidad de energía por individuo nunca vista hasta ahora. Esto ocurre principalmente mediante el coste de energía extra que suponen todos los procesos sociales, culturales y tecnológicos.

Nuestra gran complejidad estructural, permite y favorece así, la aparición de normas sociales, de rituales culturales, y de un gran consumo tecnológico y de ingeniería (que comienza con el uso del fuego), lo que lleva a un nuevo y enorme salto evolutivo en cuanto a la capacidad de explotación energética. Conforme han transcurrido los siglos, el homo sapiens ha ido incrementando linealmente la cantidad de calor generado al entorno pero; tras cierto tiempo, se alcanzó la técnica necesaria para hacer uso de los combustibles fósiles, y una nueva fuente de energía, distinta de la del Sol, estuvo a nuestro alcance. El consumo de energía externa comenzó así un crecimiento exponencial en el tiempo.

Como era de esperar, hicimos -y hacemos- uso de toda esa energía de un modo voraz. Es la tendencia natural que llevamos estudiando desde el principio: somos, como el resto de animales, máquinas diseñadas espontáneamente para consumir energía; y el descubrimiento de cada nueva fuente de energía, lleva aparejada un incremento de complejidad (esta vez social y técnica) y de un incremento en la replicación (incremento de la población), lo cual consigue el consumo y explotación más eficiente de toda esa nueva energía disponible. Se estima, por ejemplo; que hoy día se consumen aproximadamente 240.000 Kcal por persona y día (algo inaudito que explica que un fenómeno tan complejo como el hombre actual pueda existir sin violar las leyes termodinámicas). 

Y es que, si somos tan buenos como especie, si hay algo que nos caracteriza, es precisamente este potencial para consumir energía: hay otras especies que se replican más y mejor que nosotros, pero no hay especie en el mundo que consiga un consumo energético ni remotamente parecido al nuestro. Y es este potencial el  asegura nuestra supervivencia como fenómeno, y es también lo que explica nuestro evidente dominio sobre otras formas de vida.

Recapitulando.

Visto de otra forma, podemos decir que el fenómeno macroscópico que supone la aparición de una estructura compleja, que no sea al mismo tiempo eficiente consumiendo energía, es prácticamente imposible que acontezca en nuestro Universo. Esta limitación, como todo en termodinámica, se basa en la baja probabilidad práctica, y no en la imposibilidad teórica:

Un ejemplo clásico de semejante proceso de limitación práctica, sería aquel en el que todo el aire de una habitación se moviera espontáneamente a una mitad de la habitación, dejando vacío en la otra mitad. Tal compresión libre reduciría en un factor de 2^N el número de posibles estados microscópicos. En teoría, ¡este proceso no es imposible! La probabilidad de hallar una molécula dada en una mitad de la habitación es de 1/2, y la probabilidad de hallar todas las moléculas en la misma mitad es (1/2)^N. Esta probabilidad no es cero. Sin embargo, por si te preocupa encontrarse repentinamente sin aire en la mitad evacuada de tu habitación, considera que ésta podría contener 1000 moles de aire, de manera que N = 1000xNA = 6.02x10^26 moléculas. La probabilidad de que todas las moléculas estén en la misma mitad del cuarto es entonces (1/2)^6.02x10^26. Dada la probabilidad tan insignificante de que tal compresión libre ocurra, es casi seguro que nunca ha ocurrido en el Universo desde el principio de los tiempos. Concluimos que, en la práctica, la segunda ley de la termodinámica (y el resto de propuestas derivadas de esta, como es el caso de todo lo que estamos estudiando) nunca se viola.

Tenemos pues, un sistema lejos del equilibrio térmico (la Tierra), rico en cantidad y variedad de materia (lo que facilita la aparición de la oportunidad necesaria en favor de la disipación y la complejidad, reduciendo el tiempo necesario para que tal camino comience), con una fuente continua de energía externa (el Sol), y con dos grandes baños térmicos hacia los que disipar calor (océano y atmósfera).

Bajo estas condiciones, las matemáticas nos dicen que es sólo cuestión de tiempo, que cierta organización empiece a acontecer, con el único requisito de que dicha complejidad sea compensada con una eficiente capacidad para disipar calor hacia el entorno. Una vez esto sucede, el camino evolutivo hacia la complejidad en favor de un cada vez mayor uso de la energía disponible ha comenzado. Este camino, finalmente da lugar a todo lo que conocemos por vida y a todo lo relacionado con ella (incluida cultura y tecnología humana).

Las matemáticas de nuestra conducta.

La conducta animal está determinada por esta tendencia a utilizar la mayor cantidad de energía posible desde sus inicios. Su aparición fue posible, precisamente porque el hecho de poseer las habilidades conductuales adecuadas, favorece enormemente el potencial para consumir energía. Además, cualquier conducta que no favorezca a la eficiencia de este fin disipativo, está condenado a desaparecer, puesto que su complejidad no será respalda por la disipación del calor necesario, lo cual iría contra las leyes de la física. Por lo tanto; según la teoría de Jeremy England, en la práctica es imposible observar comportamientos conductuales complejos que no ser orienten y favorezcan, de un modo u otro, el uso y consumo de energía.

Merece la pena mencionar aquí, la consecuencia que todo esto tiene sobre nuestra supuesta libertad de acción (libre albedrío). Evidentemente, no hay cabida para una verdadera libertad de acción en este escenario que estamos describiendo:

Sí la teoría es correcta, es en la práctica imposible que se observe ningún fenómeno macroscópico en el mundo, cuya complejidad no se vea respaldada por una mayor eficiencia consumiendo energía. Y un fenómeno tan enormemente complejo como es la conducta humana, no puede existir, según las leyes físicas, si no va acompañado por una aún más enorme capacidad para consumir energía y disipar calor. Pero es que de esta forma, se está condicionando indudablemente lo que el hombre puede o no puede hacer: puede hacer todo aquello que favorezca la disipación, y no puede hacer aquello que vaya en contra de esta tendencia. Sólo hay una libertad muy parcial y relativa, que simplemente permite elegir, de entre varias alternativas, aquella que se prevé que otorgará mejores resultados disipativos en el futuro.

De este modo, debemos perder toda esperanza de que la especie humana haga un uso razonable de la energía y de los recursos naturales: simplemente no podemos. No podemos dejar de crecer en número, y no podemos dejar de acaparar y utilizar toda la energía que caiga en nuestras manos: es nuestro sino, nuestra naturaleza y nuestro ser. Por poner un símil, podemos ver al ser humano como el equivalente a una población de bacterias en una placa de Petri, que simplemente tiende a crecer en número aprovechando toda la energía y recursos disponibles. No es posible que las bacterias detengan su tendencia hacia el crecimiento y el uso energético, ni es posible que nosotros lo hagamos, puesto que incluso nuestro raciocinio es sólo un fenómeno complejo más, y que debe, por lo tanto, obedecer la misma tendencia disipativa que permitió su aparición, y que permite, ademásque siga existiendo.

Con el tiempo, una vez que tengamos que utilizar energías menos eficaces que las fósiles y la nuclear (las renovables), habrá reajustes en la población, pero la tendencia a consumir la mayor cantidad de energía posible seguirá aún con nosotros, y lo hará por siempre jamás, ya que la física del mundo no permite otra cosa: Así es la física, así es el mundo, y así es el hombre.


Aquí tenéis todas las referencias necesarias para seguir este interesante asunto:
  1. http://www.englandlab.com/publications.html (web oficial del equipo de investigación de Jeremy England. Aquí irán subiendo los avances que se produzcan en este asunto).
  2. G. E. Crooks, Phys. Rev. E 60, 2721 (1999). [3] R. A. Blythe, Phys. Rev. Lett. 100, 010601 (2008)(Este estudio de Crooks, es el que sirve de base para todo el trabajo de Jeremy).
  3. Perunov, N., Marsland, R., and England, J. "Statistical Physics of Adaptation", (preprint), arxiv.org, 2014. (Este es el paper de diciembre que ha levantado tanta expectación).
  4. England, J. L.  "Statistical Physics of self-replication." J. Chem. Phys.139, 121923 (2013). (Este es un paper del 2013, donde el equipo comenzó a dar forma definida a toda la línea de investigación).
  5. https://www.youtube.com/watch?v=e91D5UAz-f4#t=1720 (Vídeo con una charla del propio Jeremy England donde explica la línea de investigación).
  6. http://www.scientificamerican.com/article/a-new-physics-theory-of-life/ (Artículo divulgativo en la revista Scientific American sobre el trabajo de Jeremy England).
  7. https://www.quantamagazine.org/20140122-a-new-physics-theory-of-life/ (Artículo divulgativo en la revista Quanta Magazine sobre el trabajo de Jeremy).
  8. http://quevidaesta2010.blogspot.com.es/2014/12/las-matematicas-de-la-vida.html
  9. http://quevidaesta2010.blogspot.com.es/2015/01/las-matematicas-de-la-vida-ii.html
  10. http://quevidaesta2010.blogspot.com.es/2015/01/las-matematicas-de-la-vida-iii.html
  11. http://quevidaesta2010.blogspot.com.es/2015/01/las-matematicas-de-la-vida-iv.html
  12. http://quevidaesta2010.blogspot.com.es/2015/01/las-matematicas-de-la-vida-v.html