miércoles, 31 de diciembre de 2014

Las matemáticas de la vida


Llevo algunas entradas hablando de un elaborado estudio físico y matemático, realizado por el profesor Jeremy England (puedes leer el paper desde aquí). Voy a intentar en esta entrada explicar, en lo posible, las matemáticas que existen detrás de todo esto.

Primero, repasemos la teoría:

Según el trabajo de Jeremy, la vida es un fenómeno físico más, que sería tan sólo la manifestación del proceso más eficiente de entre los disponibles, para engullir y disipar la energía externa que entra en un entorno abierto y que se encuentra teromodinámicamente lejos del equilibrio.

En el caso concreto de nuestro planeta, la cosa sería como sigue:

La Tierra hace las veces de un sistema local abierto y lejos del equilibro termodinámico. En este sistema, entra constantemente energía externa (ordenada y útil) en forma de fotones que llegan desde el Sol. La atmósfera y el océano, hacen las veces de fuente termal hacia donde disipar la energía absorbida y utilizada en los procesos físicos que tienen lugar. Y, según las matemáticas de este trabajo, la materia disponible se estructuraevoluciona espontáneamente de modo que cada vez se absorba (de la energía externa) y se disipe (hacia la fuente) cada vez más y más energía. De hecho, el mejor modo de disipar más eficientemente energía, es haciendo copias de ti mismo. En otras palabras: si eres bueno disipando energía, y además eres capaz de copiarte a ti mismo, la física te va a ayudar a dominar el entorno. Y las matemáticas parecen apoyar esta hipótesis en el caso de la molécula de ARN, precursora del ADN y de la evolución de la vida (más detalles en el paper).


Ahora veamos e intentemos comprender el estudio desde el punto de vista matemático:

Empezamos considerando un sistema de N partículas invariables en número, de volumen V, en contacto con una fuente de calor de temperatura inversa β, donde:

\beta \equiv \frac{1}{k_BT}

Siendo T la temperatura de la fuente, y kB la contante de  Boltzmann. El sistema se encuentra en equilibrio térmico, por lo que la temperatura es espacial y temporalmente uniforme.

En un sistema como este, existen diferentes micorestados i,j, etc, cada uno de los cuales posee su propia energía de estado asociada Ei, Ej, etc

Es decir, que existen sólo cierto número de microestados posibles (estados de las partículas constituyentes del sistema) que permiten mantener constante N, V, y T. Vamos a catalogar dichos microestados permitidos con etiquetas i,j,etc, y a sus energías asociadas con Ei, Ej, etc.

Por otra parte, para sistemas aislados (o casi aislados) como el descrito anteriormente, donde nos encontramos en equilibrio térmico, y donde N y V permanecen constantes, nos encontramos con la propiedad física (parte de la mecánica estadística) denominada distribución de Boltzmann:

F({\rm state}) \propto e^{-\frac{E}{kT}}

Esta propiedad, nos indica la probabilidad, dado un sistema aislado en equilibrio térmico, de encontrarnos con un determinado microestado (i, j, etc.) de entre los disponibles, teniendo en cuenta únicamente la energía de ese microestado concreto (puesto que T y K son constantes para el sistema).

Y, tras normalizar la distribución de Bolzmann, mediante la partición canónica:

 Z = \sum_{s} \mathrm{e}^{- \beta E_s}

nos queda:

\textstyle P = \frac{1}{Z} e^{-E/(k T)}

Que nos indica, la probabilidad normalizada de encontrar el micorestado i en un sistema aislado en equilibro térmico, con N, V y T constantes, según sea la energía Ei relacionada con ese microestado.


  • Ejemplo 1:

Imaginemos que un átomo tiene sólo dos niveles de energía disponibles, los cuales están separados por 2·10^-23 J (Julios). Si la temperatura del sistema es igual a 1.5 K (grados Kelvin), ¿cuál es la probabilidad de encontrar al electrón en el nivel de más baja energía?

Solución:

Tomamos el nivel de más baja energía Ei = 0 J, y el siguiente nivel Ej = 2·10^-23 J.

La probabilidad de cada estado vendrá dada por:

F({\rm state}) \propto e^{-\frac{E}{kT}}

por lo tanto:

F(i) = e^(-0/1.38·10^23·1.5) = 1
F(j) = e^(-2·10^-23/1.38·10^23·1.5) = 0.38

Y, al normalizar el resultado nos da la probabilidad:

p(i) = 72.4% (probabilidad de encontrar el electrón en el estado de baja energía)
p(j) = 27.6% (probabilidad de encontrar el electrón en el estado alta energía)
.

A continuación, y volviendo a la teoría, nos encontramos con la siguiente ecuación[1] que se cumple para sistemas aislados y en equilibrio térmico, como los que estamos estudiando (NVT constante):

  (1)

Donde observamos la distribución de Boltzmann normalizada que ya hemos visto, y un nuevo elemento multiplicativo: π(i → j; τ )

Este elemento, no es más que la probabilidad condicionada de encontrar el sistema en el microestado j en un tiempo τ (t = τ > 0), sabiendo que al inicio (t = 0) el sistema se encontraba en el microestado i. Y, por otra parte, i* (y j*) son microestados equivalentes a i (y j) pero con momento opuesto (o reverso). Es decir, con un vector momento (y velocidad) igual pero de sentido opuesto.

La ecuación (1) viene a decir que, en un sistema como el descrito en equilibrio térmico, la probabilidad de pasar de un microestado i a un microestado j, es idéntica a la probabilidad de pasar del microestado j al microestado i. O, lo que es lo mismo, que la probabilidad que conecta los microestados i y j adelante ó atrás en el tiempo es la misma.

(1) viene a decir que, en un sistema aislado y en equilibrio térmico (con NVT constantes), la probabilidad de encontrar el micorestado i, multiplicado por la probabilidad condicionada de pasar de i a j  en un tiempo τ, es igual, a la probabilidad de encontrar j, multiplicado por la probabilidad condicionada de pasar de j a i en ese mismo periodo de tiempo τ (τ > 0).

Trabajando sobre la ecuación (1), y pasando la probabilidad condicionada π(i → j ; τ ) dividiendo hacia la derecha, y la distribución de Boltzmann normalizada de j dividiendo hacia la izquierda, nos queda la siguiente expresión:

 (2)

Para llegar a el lado derecho de (2), hemos hecho uso de lo siguiente:

\frac{F({\rm state2})}{F({\rm state1})} = e^{\frac{E_1 - E_2}{kT}}.

Al dividir una distribución de Boltzmann entre otra, la partición Z se anula, y el exponente se resta, quedando epx {Ei - Ej / kT} = exp { β · (Ei - Ej)}

Sabemos además que el calor transferido a la fuente durante la transición del microestado i al j es:
Qi → j = Ei − Ej, y sabemos que (Qi → j / T) es igual al cambio de entropía que se produce en el baño térmico durante la transición de esos microestados (de i a j), por lo que llegamos a:

\Delta S_{\text{bath}} = \frac{Q_{\text{bath}}}{T}=-\frac{\Delta U + W}{T} \,

 y sustituyendo esta expresión, llegamos a (2), a partir de (1), mediante un poco de álgebra.

La ecuación (2) nos indica la relación entre la irreversibilidad de una transición (es decir, cuánto más probable es que ocurra una transición en una dirección i → j que en la dirección reversa u opuesta j* → i*)  y el aumento de entropía que se produce en el entorno durante la transición en la dirección i → j.

Hay que hacer notar, además; que aunque todo esto ha sido deducido a partir de sistemas en equilibrio, es igualmente cierto para sistemas lejos del equilibrio.

El resto del trabajo de Jeremy, se enfoca, como veremos, en intentar demostrar que este resultado que acabamos de alcanzar, donde se ha deducido una relación microscópica entre irreversibilidad y entropía, es de aplicación también en un nivel macroscópico y en sistemas lejos del equilibrio termodinámico; como es el caso de las estructuras biológicas autorrreplicativas en la Tierra.



Irreversibilidad macroscópica:

Vamos a intentar determinar las reglas termodinámicas que aplican a nivel macroscópico entre dos estados arbitrarios cualesquiera. Y para lograrlo, tenemos que determinar primero, como se relacionan a nivel microscópico la probabilidad de los microestados con el calor y la entropía.

Con la ecuación (2) ya descubrimos una relación de este tipo para sistemas en equilibrio, pero se ha demostrado[2] que dicha ecuación es generalizable a sistemas microscópicos lejos del equilibrio, siempre y cuando el sistema esté acoplado a un baño (o una fuente) termal, y se componga de microestados reversibles en el tiempo: es decir; que se pueda pasar de i → j y de j → i, en el mismo periodo de tiempo τ (τ > 0), con tan sólo cambiar el sentido del vector momento de las partículas constituyentes.

Si llamamos x(0) al punto inicial en la trayectoria (camino o path) que va desde un microestado cualquiera i, hacia otro microestado en un tiempo τ (τ > 0), y llamamos x(t) al punto final de esta trayectoria, tenemos que se cumple lo siguiente

 (3)

Donde β ≡ 1/T, es el inverso de la temperatura del baño acoplado al sistema, π[x(t)] es la probabilidad condicionada de un camino o path concreto que llegue a x(t) dado el punto de inicio en x(0). El incremento de Q, hace referencia al calor liberado hacia la fuente (o baño) durante esa trayectoria desde x(0) a x(t).

Esta fórmula, captura una esencial relación microscópica entre calor e irreversibilidad: cuando más probable es una trayectoria frente a su reversa (u opuesta en el tiempo), más aumenta la entropía del Universo mediante la liberación de calor en el baño acoplado al sistema (o, lo que es lo mismo, cuanto más irreversible es una trayectoria seguida, más aumento de entropía produce). Si la probabilidad de la trayectoria hacia delante, es mayor que la probabilidad en sentido opuesto, el camino seguido hacia delante será irreversible, en el sentido de que es muy poco probable que se de el sentido opuesto en dicha trayectoria. Y cuando ocurre esto, el lado izquierdo de la ecuación (la entropía) aumenta.

Además, hay que hacer notar, que toda esta relación entre calor e irreversibilidad, es válida también para sistemas alimentados por fuentes de energía externas siempre que estén sujetas a reversibilidad temporal. Esto quiere decir, que no es necesario que la probabilidad del estado inicial y final de una transición, sigan una distribución Boltzmann, como hemos aplicado hasta ahora.

Si fijamos el punto de inicio y el punto de fin de una trayectoria (por ejemplo, con x(0) = i y x(τ) = j, siendo i y j dos microestados cualesquiera del sistema), y calculamos la media del calor expelido entre los caminos (o paths) disponibles que nos llevan desde i a j (para ir desde un microestado i a otro microestado j, podemos seguir diferentes caminos, y es la media del calor expelido en cada camino posible lo que nos interesa).

Debemos calcular esta media, porque ahora estamos considerando sistemas lejos del equilibrio térmico, y no podemos calcular el calor expelido en el cambio de estado simplemente mediante la diferencia de energía entre los microestado (Qi → j = Ei − Ej) como deducimos a partir de la distribución Boltzmann. Ahora necesitamos calcular el calor expelido en cada camino posible entre los microestados, y usar la media. Si lo hacemos así, y usamos un poco de álgebra en (3) (reescribiendo el logaritmo en (3) como una ecuación exponencial, y sustituyendo x(0) = i y x(τ) = j), llegamos a

Hay que tener en cuenta que, si sólo hay un camino posible, o si todos los caminos expelen siempre el mismo calor hacia la fuente; como ocurre en el caso en que el sistema no está guiado o dirigido por un campo de energía externo, esta ecuación se reduce a (2) como caso especial.




Sin duda, esta regla deducida a nivel microscópico (cuando más probable es una trayectoria, frente a la misma trayectoria pero opuesta en el tiempo; más aumenta la entropía del Universo. O, lo que es lo mismo, cuanto más irreversible es la trayectoria seguida por un sistema a nivel microscópico, más aumento de entropía se produce), debe tener consecuencias a su vez a nivel macroscópico. Vamos a investigar y a intentar formalizar las consecuencias a este nivel:

Vamos a comenzar suponiendo un sistema macroscópico, y una condición empírica observable I de dicho sistema. Una condición de ese tipo, podría ser, por ejemplo: "el sistema macroscópico, contiene una bacteria sana (con un potencial replicativo exponencial) en el inicio de su fase de división celular". Si preparamos, a continuación, un sistema, bajo un conjunto de concreto de condiciones  de modo que vemos que el critero I  es satisfecho, inmediatamente, podemos asociar una distribución de probabilidad p(i|I) que será la probabilidad condicionada implícita de que el sistema esté en un microestado i en particular, dada la condición macroscópica I  (que está bajo nuestro control experimental).

En el ejemplo concreto que estamos siguiendo para I, la probabilidad de que el sistema se encuentre en un microestado i, que se corresponda con un microestado donde todas las partículas están distribuidas equitativamente por toda la superficie es muy pequeña, puesto que un microsistema tan homogéneo espacialmente, es poco probable que contenga un macrosistema donde se observe, por ejemplo, una célula sana. Otro macrosistema i, que se corresponda con una distribución de partículas agrupadas en algún punto, es mucho más probable que contenga un macroestado con una célula. Pues es toda esa distribución de probabilidades, la que definimos como p(i|I).

Supongamos, ahora, que dejamos pasar cierto intrervalo de tiempo τ, mientras mantenemos nuestro sistema en contacto con un baño térmico de temperatura inversa β. e introducimos después una nueva condición macroscópica observable  II. Nos valdría, por ejemplo, la siguiente: "el sistema contiene dos bacterias sanas (con un potencial replicativo exponencial) en el inicio de sus fases de división celular".




En el momento en que veamos esta nueva condición II ocurrir (tras esperar τ segundos después de la ocurrencia de I), podemos inmediatamente definir la siguiente distribución de probabilidad p(j |II), la cual indicará la probabilidad condicionada de que el sistema se encuentre en el microestado j, conocido que el sistema fue inicialmente preparado para cumplir el macroestado I, que transcurrió un periodo de tiempo τ, y que finalmente se observó cumplirse el macroestado II.

Y ahora que ya tenemos definida la distribución de probabilidad de nuestros macroestados de interés, vamos a intentar trabajar sobre dicha definición para conseguir una definición de su irreversibilidad macroscópica. Podemos escribir:


La ecuación (4), indica la probabilidad de que un sistema, preparado de modo que se observe el macroestado I, satisfaga también el macroestado II, después de transcurrir un periodo de tiempo τ.

La eucación (5), indica la probabilidad de que, después de transcurrir otro periodo de tiempo τ, el sistema vuelva a satisfacer la condición macroscópica I.

En nuestro caso de ejemplo concreto; indicarían la probabilidad de que, tras preparar el sistema hasta observar una célula sana en proceso de división I, y de que transcurra un tiempo τ, se observen dos células sanas II (4). Y la probabilidad de que, tras transcurrir otro periodo de tiempo τ, vuelva a cumplirse I; es decir, que en el sistema sólo haya una célula sana de nuevo.

En lenguaje natural, (4) indica el producto del número de microestados que permite la condición II por el número de microestados que permiten I, multiplicado a su vez por la probabilidad de que el microestado i se de, conocido el macroestado condicionante I, multiplicado por último, por la probabilidad de que el microsistema i se traslade a un microsistema j dado en un tiempo τ. O, en otras palabras: la probabilidad de pasar del macroestado I al II, es igual a la suma de productos de cada microestado i permitido por la probabilidad de que ese microestado i se convierta en alguno de los microestados j que permite II. 
  • Ejemplo 2:
Imaginemos un tablero de 3 en raya, con 3 x 3 = 9 casillas disponibles (el equivalente a un volumen V constante de 3x3x1). En el tablero siempre hay 3, y sólo 3 fichas (número de partículas N constante), el movimiento o cambio de estado se produce de un modo no dirigido, mediante fluctuaciones. 

Definimos ahora un macroestado I = "El sistema contiene las 3 fichas en raya", y otro II = "El sistema no contiene las 3 fichas en raya".

Hay 8 modos de colocar las 3 fichas en raya, y como el cambio es fluctuante y aleatorio, la probabilidad de cada uno de estos modos es equivalente. Es decir; que p(i|I) = 1 / 8 = 0.125. Cada tipo de 3 en raya (microestados i, i', etc.), es igual de probable porque no hay discriminación entre ellas (el movimiento es aleatorio y no dirigido).

Hay 729 modos de colocar las 3 fichas en el tablero 3x3, y de ellas, 8 están en tres en raya, luego hay 721 microestados cuyas fichas no están en tres en raya. Cada uno de esos 721 microestados son también igual de probables, por lo que la probabilidad condicionada p(j |II) = 1 / 721 = 0.0014

Por otra parte, pasar de un microestado i (en 3 en raya) a uno j (no en 3 en raya) tiene la probabilidad:

π(i → j; τ ) = 721 / 729 = 0.99 = 99%

Pasar de un microestado (no en 3 en raya) a uno (en 3 en raya) tiene la probabilidad:

π(j → i; τ ) = 8 / 729 = 0.01 = 1%

Como este ejemplo además, es discreto (y no continuo), las integrales en (4) y (5) se vuelven sumatorios, por lo que tenemos:

π(I → II) = 721 · [(0.125·0.99) + (0.125·0.99) + (0.125·0.99) + ...  + (0.125·0.99)] = 713.79 / 721 (normalizamos) = 0.99 = 99%


 π(II → I) = 8 · [(0.0014·0.01) + (0.0014·0.01) + ...  + (0.0014·0.01+ (0.0014·0.01)] = 0.08 / 8 (normalizamos) = 0.01 = 1%

Pasar de un macroestado de tipo I a uno tipo II es mucho más probable que pasar de uno tipo II a tipo I, por lo que el proceso es irreversible, en el sentido de que es muy poco probable que, al preparar el sistema de modo que comencemos con un tablero con 3 en raya, al dejarlo después fluctuar, volvamos a encontrarnos en un microestado i de nuevo tras pasar un tiempo τ.

Volvamos a la teoría:

Si ahora realizamos el cociente de  π(II → I) sobre π(I → II) [(5) sobre (4)], y si usamos esta expresión,

 para despejar π(i → j; τ ),  y también usamos la siguiente propiedad: e^ln(x) = x, procedemos del siguiente modo:

 (6)


donde  <. . .> I→II, hace referencia a al valor esperado de todos los caminos (o trayectorias) posibles desde un microestado i de la configuración inicial I, hacia otro microestado j de la configuración final II, siendo cada camino o trayectoria ponderado por su probabilidad de ocurrencia.

Si usamos la definición de entropía de Shannon

 H = - \sum_i p_i \log_b p_i
para definir la entropía interna de nuestro sistema, podemos escribir



que simboliza el cambio de entropía interna en nuestro sistema de estudio, durante el cambio hacia delante desde el macrosistema que cumple I hacia el macrosistema cumpliendo II. Si a continuación usamos la propiedad que nos dice que, para todo xe^x ≥ 1 + x, y  ≥ 1 + , podemos trabajar sobre el resultado en (6), hasta llegar a

 (7)

que, mediante estas propiedades ya conocidas,



nos llevan inmediatamente a


En (8), si definimos los macorestados I y II, de tal modo que contengan el mismo conjunto de miscroestados i, entonces π(II → I) = π(I → II) = 1, y (8) se reduce a una definición trivial de la segunda ley de la termodinámica, que nos dice que el calor que se espera generar al baño térmico, más el incremento en la entropía interna del sistema, debe ser mayor o igual que cero; es decir, el cambio medio en la entropía del universo debe incrementarse.

Sin embargo, de (8) sacamos una conclusión importante: la irreversibilidad macroscópica en la transición de un conjunto de microestados que cumplen I hacia  otro subconjunto de microestados que cumplen II, condiciona un estricto límite en la cantidad de entropía que se puede producir en este tipo de transiciones macro.

En resumen:


Cuanto más irreversible es un proceso macroscópico (es decir; cuanto más negativo sea ln[π(II→I)/π(I→II)], o más positivo sea ln[π(I→II)/π(II→I)]), más positiva debe ser la cantidad mínima de entropía producida.

Y, además, como (8) ha sido derivado a partir de asunciones muy generales, aplica a un gran rango de este tipo de transiciones macroscópicas donde se pueden preparar y catalogar estados iniciales y finales [3-6], incluidos los procesos de autorreplicación como los que tienen lugar en la biología.

En un próxima entrada, explicaré como Jeremy England hace uso de toda este modelo matemático para defender su propuesta sobre el origen y la evolución de la vida, desde un punto formal y matemático.

Si no puedes esperar, y quieres adelantarte, puedes leer el trabajo completo de Jeremy, en estos dos papers (y en el vídeo de una interesante charla que dio al respecto):

http://arxiv.org/pdf/1412.1875v1.pdf

http://www.englandlab.com/uploads/7/8/0/3/7803054/2013jcpsrep.pdf

https://www.youtube.com/watch?v=e91D5UAz-f4#t=1720

Espero, de todas formas, poder terminar pronto mi análisis personal del resto del trabajo, y publicarlo por aquí.

Un saludo.

[1] C. W. Gardiner, Handbook of Stochastic Methods, 3rd ed. (Springer, 2003).
[2] G. E. Crooks, Phys. Rev. E 60, 2721 (1999).
[3] R. A. Blythe, Phys. Rev. Lett. 100, 010601 (2008).
[4] A. Gomez-Marin, J. M. Parrondo, and C. Van den Broeck, Phys. Rev. E 78,
011107 (2008).
[5] G. Verley, R. Chétrite, and D. Lacoste, Phys. Rev. Lett

martes, 16 de diciembre de 2014

Sólo somos máquinas de devorar energía


Somos máquinas de supervivencia, vehículos autómatas programados a ciegas con el fin de preservar las egoístas moléculas conocidas con el nombre de genes.
Los individuos no son elementos estables, son efímeros. Así, también, los cromosomas se entremezclan hasta quedar relegados al olvido, al igual que una partida de naipes después de ser barajadas las cartas. Pero las cartas mismas sobreviven a la barajada. Las cartas, en este caso, representan los genes. Los genes no son destruidos por el cruzamiento, se limitan a cambiar de compañeros y seguir adelante. Por supuesto que siguen adelante. Ese es su negocio. Ellos son los replicadores y nosotros somos sus máquinas de supervivencia. Cuando hemos servido nuestro propósito somos descartados.
Las moléculas de ADN son replicadores[...] que se reunieron en grandes máquinas comunales de supervivencia o «vehículos». Los vehículos que mejor conocemos son los cuerpos individuales, como el nuestro propio. Un cuerpo, por lo tanto, no es un replicador, sino un vehículo. Debo hacer hincapié en esto, pues es un aspecto que se ha visto mal interpretado. Los vehículos no se replican a sí mismos; trabajan para propagar sus replicadores. Los replicadores no se comportan, no perciben el mundo, no capturan presas ni huyen ante los depredadores; construyen vehículos que hacen todas esas cosas.
"El gen egoísta: Las bases biológicas de nuestra conducta"
Richard Dawkins

Con 15 años, mi profesor de biología me recomendó el libro El gen egoísta (en realidad, fue una lectura recomendada a toda la clase; pero sólo yo lo leí xDD). Este libro supuso un enorme shock en mi vida, y, de hecho, condicionó en parte mi adolescencia (para mi desgracia, porque acentuó una fuerte tendencia por mi parte en aislarme socialmente por motivos existenciales; cosa que me costó varios años superar).

Yo siempre he sido muy existencialista. Desde muy joven, me han inquietado siempre los "grandes" temas filosóficos. Ya era ateo convencido con 12 años, pero mostraba mucho antes serias dudas sobre el concepto del Dios teísta. Mientras hacía la Comunión, reflexionaba sobre lo absurdo que era todo eso que me contaban en esas tardes de catequesis.

Pero fue, como digo; El gen egoísta, el libro que cambió mi vida. De hecho, por aquel entonces yo ya conocía y comprendía bastante bien la teoría de la evolución por selección natural, y, aunque suene pretencioso, el libro de Dawkins no hizo tanto descubrir, como confirmar mis ideas sobre lo que es la vida realmente. Es más, yo era mucho más radical que el propio Dawkins en cuanto a las implicaciones filosóficas de su libro. Porque, si hay alguien, en mi opinión; que supo comprender y expresar bien las implicaciones de la teoría evolutiva en el significado de la vida, fue el estupendo filósofo Carlos Castrodeza (por desgracia, recientemente fallecido): él comprendió el verdadero nihilismo que espera al final del camino deductivo que comienza tras la aceptación del proceso evolutivo.

Y sin embargo, las palabras de Dawkins de que sólo somos máquinas de supervivencia; meros vehículos autómatas programados a ciegas con el fin de preservar moléculas de ADN se quedan cortas. Por supuesto que se quedan cortas, porque se limitan al terreno de la ciencia de la biología. Aún queda un paso por dar, que no es otro, que el de reducir esta afirmación al terreno de la ciencia más fundamental: la física.

En este sentido, son muchos los trabajos que se han realizado; destacando, en mi humilde opinión, el trabajo que ya he comentado en varias ocasiones de Enrique Meléndez-Hevia (Termodinámica y Selección Natural). Y, para mi satisfacción; aunque lentamente, parece que se sigue avanzando en esta dirección. En esta entrada de mi blog, hice referencia al trabajo de un joven investigador, Jeremy England; que parece que ha dado con algo importante al respecto:

Según un elaborado estudio físico y matemático, parece ser que las leyes de la física, promueven el fenómeno de que, cuando un grupo de átomos es impulsado por una fuente externa de energía (como la energía de una estrella o de cualquier fuente química), y están rodeados, además, por una fuente hacia donde poder disipar calor (como un océano o una atmósfera), dicha agrupación de átomos se estructurarán espontáneamente de manera que sean capaces de disipar cada vez más energía conforme transcurre el tiempo.

Y ese sería, según el estudio, el origen físico de las moléculas autorreplicantes de ARN que conforman la vida: porque la replicación, es un buen modo de disipar cada vez más energía con el transcurso del tiempo. Y eso es todo; una carrera en pos de disipar la mayor cantidad de energía posible, una vez dadas las condiciones adecuadas (energía solar abundante, y una atmósfera y océanos adecuados donde disipar la energía tomada del ambiente).

De ese modo; nuestro éxito como especie, no sería nuestra mayor capacidad de replicación genética (porque cualquier bacteria o insecto es más numeroso que la especie humana), sino nuestra suprema capacidad para devorar energía. Esa es nuestra razón de ser, y sin duda, somos los mejores tomando y disipando energía en la Tierra. Y, por cierto, una cuestión semántica: no acaparamos de este modo energía porque seamos humanos y necesitemos tener hijos y criarlos y bla, bla, bla; sino que, sencillamente, engullimos energía porque esa es nuestra esencia, es nuestro sino: nuestro destino. El Universo no "busca" replicar estructuras materiales complejas (como el ADN), el Universo sólo "busca" consumir cuanta más energía y cuánto más rápido mejor; "necesita" disipar la energía útil del mundo: parece "desear" que cese la posibilidad o el potencial para realizar trabajo o, en otras palabras; parece que "quiere" que el movimiento (o la posibilidad de movimiento) desaparezca. Todo ese "querer" y "desear" con comillas, por supuesto. Entiéndase la metáfora ;).

Esta propuesta de Jeremy England realmente tiene sentido cuando observamos el modo en que se comporta el hombre. Baste nombrar las ansias con las que buscamos colonizar otros planetas. Necesitamos nuevos recursos energéticos que explotar; necesitamos expandirnos por el Universo, para poder arrasar así como hemos hecho aquí en la Tierra. El ideal humano, sin duda, sería poder llenar el Universo de seres humanos: replicarnos y replicarnos por doquier...devorar toda la energía disponible. Lo que demuestra lo que es el hombre: una máquina (natural) de zampar energía, y poco más.

Y es que, no sé si a conciencia o sin querer, Jeremy England también ha reducido (además de la biología a la física) otra rama del saber humano a la física subyacente. Ahora podemos interpretar la psicología, la ciencia de la conducta humana, a la luz de este nuevo trabajo.

Al igual que la teoría evolutiva dio lugar a la psicología evolucionista, la propuesta de Jeremy, podría dar lugar a una nueva línea en psicología. Toda la conducta humana va orientada hacia la supervivencia y la reproducción, y ésta, a su vez, sólo persigue disipar energía; luego, toda la conducta humana, estará, en última instancia, dirigida forzosamente hacia la "búsqueda" por la mayor disipación de energía posible.

No es fácil, a priori, ver la relación entre evolución y conducta, y; de hecho, la psicología evolucionista ha sido poco comprendida y defendida por la comunidad de científicos; y sólo fue el avance en las neurociencias lo que ha permitido en las últimas décadas que las teorías de la psicología evolucionista sean más conocidas.

Y si no es fácil ver (y aceptar) la relación entre evolución y conducta; ya que dicha relación implica un determinismo poco agradable para nuestro ego como especie; comprender y aceptar una relación directa entre nuestra conducta y la física del mundo será, como poco, un largo camino, que quizás ni lleguemos a ver en vida. Pero no me cabe duda de que es cuestión de tiempo, que finalmente hará aparición una ciencia dedicada por completo a estudiar esta relación.

Voy a poner un pequeño ejemplo práctico, para ilustrar lo que quiero decir:

Casi toda mujer, se siente fuertemente atraída por un macho que parezca musculoso y fibroso. La psicología evolucionista, nos dice que este tipo de atracción se debe a que aquellas mujeres, cuyos genes produjeron una atracción física por machos de este tipo, terminaron procreando con ellos; y dado que esos machos musculosos y de apariencia sana fueron, en el proceso evolutivo, más eficaces a la hora de criar y mantener a su progenie, los genes que determinaron a las mujeres preferir machos con esta apariencia sana y poderosa, prevalecieron frente a genes rivales, que no producían esta tendencia a la hembra: este sería el origen evolutivo de que la mayor parte de las mujeres babeen frente a la "tableta de chocolate" de los modelos masculinos, y a que sientan repulsión por un hombre obeso o de aspecto enfermizo ;).

Hasta aquí, la psicología evolucionista. Pero, según vemos, todavía podemos ir un poco más allá. Lo que esa mujer está realmente seleccionando, es la mejor máquina consumiendo energía y realizando trabajo. El obeso, no es una buena estructura material para realizar trabajo y acaparar energía. El chico de la "tableta", sin duda es una estructura más prometedora.

Y cierto que en la sociedad actual, a veces no se elige al chico fuerte, sino al chico listo; pero eso es sólo porque el chico listo podría ser capaz de usar su cerebro bien estructurado, para conseguir acaparar un gran número de recursos energéticos y materiales con su mente, Sea cual sea la elección de la mujer, el objetivo final sería conseguir una pareja con el mejor potencial para obtener energía de entre los disponibles en su entorno (ninguna mujer, mentalmente sana, va a elegir por voluntad propia, a un macho visiblemente poco inteligente y de apariencia poco sana, si dispone de mejores alternativas a su alcance. A menos que ese macho tenga recursos garantizados por motivos hereditarios ;) ), Más tarde, todo ese potencial energético, sería invertido en la replicación y la manutención de la progenie; lo cual sólo valdría para continuar este ciclo disipativo.

Sería interesante estudiar si la conducta media de una persona, ante una determinada situación, persigue alguna distribución estadística que se pueda correlacionar con una mayor disipación energética. Es decir; si se puedo o no determinar matemátciamente, la conducta más probable de un individuo, según la cantidad prevista de energía que supondrá su actuación.

Hay mucho aún que pulir, y mucho que debatir; además, las implicaciones teóricas son muy diversas, pudiéndose llegar incluso al terreno metafísico: ¿por qué querría un hipotético Dios crear un mundo destinado a "auto-destruirse"? El filósofo Mainländer (Philipp Batz), por poner un ejemplo; ya atribuyó a un ente metafísico todo esto que se comenta. En palabras de Antonio Priante.:
"En el principio era Dios, o sea, para decirlo con palabras de Spinoza, la sustancia divina originaria. Esa entidad absoluta, única, inmaterial, no estaba contenida ni en el tiempo ni en el espacio, si es que esto es pensable. Idéntica a sí misma, no siendo otra cosa que ser puro, eterno e indestructible, un buen día – y perdón por el uso, metafórico, del tiempo -, hastiada sin duda de su divina perfección, decidió echarlo todo a rodar y dejar de ser.
¿Pero cómo el Ser puede dejar de ser? ¿Cómo algo que no existe en el tiempo y el espacio, algo absolutamente inmaterial y trascendente puede morir? Y entonces inventó el mundo. Es decir, su sustancia divina segregó un mundo material con su tiempo, su espacio y su multiplicidad de seres inanimados y animados, que son – somos – partículas declausius aquella unidad originaria, llamadas todas a perecer. El fin del Universo es su muerte, su aniquilamiento, aunque sólo sea por cumplir con el segundo principio de la termodinámica (que Mainländer había aprendido de Clausius, quien la acababa de inventar) y su consiguiente entropía. Y es así cómo Dios cometió suicidio: convirtiéndose en un mundo destinado a morir.
Es decir, y a ver si queda claro, que el Universo no surgió de un deseo de creación sino de un deseo de autodestrucción. El Universo, la “creación” toda, es el largo proceso del suicidio de Dios, cuyo inicio fue una gran explosión que dio origen a la materia, al tiempo y el espacio." 
(https://antoniopriante.wordpress.com/2013/12/30/mainlander-ii-2/

En fin, seguiremos atento al trabajo de Jeremy, y a sus consecuencias ;).

Un saludo.


jueves, 11 de diciembre de 2014

¿Por qué existe la vida?

"La selección natural es una ley física universal y hora es ya de que empiece a aparecer en los libros de física. La vida no es un proceso que se forme y se desarrolle al margen de las leyes físicas." Enrique Meléndez-Hevia.
Hoy he leído esta noticia: http://www.businessinsider.com/groundbreaking-idea-of-lifes-origin-2014-12. En ella se habla de algo muy relacionado al tema que traté en esta entrada de mi blog: http://quevidaesta2010.blogspot.com.es/2014/11/la-primera-ley-de-la-evolucion-biologica.html

De hecho, parece que Jeremy England casi confirma en su estudio lo que ya propuso el profesor Enrique Meléndez-Hevia, en su trabajo sobre la relación entre la teoría de la evolución y el segundo principio de la termodinámica. Todo un descubrimiento. Ya me extrañaba que desde que el profesor Enrique hablase sobre este tema en el 2001 (Termodinámica y Selección Natural), no hubiese mucho más al respecto.

Parece que la relación directa entre termodinámica y evolución se hace firme: la reducción de la vida a la física subyacente ya es casi un hecho.

Un saludo.

------------------------
Edito (13/12/2014).

Aquí tenéis una charla del autor del artículo, Jeremy England:



jueves, 4 de diciembre de 2014

¿Por qué se ha estancado el progreso humano?


Ayer leí un revelador artículo titulado The golden quarter, y en él, se viene a hablar sobre el hecho de que la mayoría de nuestros mayores logros culturales y tecnológicos se llevaron a cabo entre 1945 y 1971 (podéis leer el artículo completo desde aquí).

Se hace hincapié en que casi toda nuestra tecnología actual, y toda nuestra medicina y cultura, proviene de descubrimientos de esa época del siglo XX, Y que la mayor parte de los avances tecnológicos posteriores a esa fecha, no son más que sutiles mejoras basadas en los hallazgos de esa época. ¿Se puede llamar a eso un progreso real?:

Mira a tu alrededor, dice el autor del artículo. Mira hacia arriba: los aviones que se ven son básicamente versiones actualizadas de los que vuelan desde la década de los 1960 -con un poco más de aviónica. En 1971, un avión de pasajeros regulares tomaba ocho horas para volar de Londres a Nueva York; hoy, todavía lo hace en 8 horas. Es más, en 1971, había un avión de pasajeros que podía hacer el viaje en tres horas. Ahora, el Concorde está muerto. Nuestros coches son más rápidos, más seguros y consumen menos combustible que los que lo hicieron en 1971, pero no ha habido un cambio de paradigma (no llegó el coche volador xD).

Y sí, vivimos más tiempo , pero esto tiene muy poco que ver con avances recientes. Desde 1970, el Gobierno Federal de Estados Unidos ha gastado más de $ 100 mil millones en lo que el presidente Richard Nixon llamó "La guerra contra el cáncer ". Mucho más se ha gastado a nivel mundial. Y a pesar de estos miles de millones de inversión, esta guerra ha sido un fracaso espectacular. En los EE.UU., las tasas de mortalidad de todos los tipos de cáncer se redujo en sólo el 5 por ciento en el período 1950-2005, según el Centro Nacional de Estadísticas de Salud. El hecho contundente es que, con la mayoría de tipos de cáncer, las posibilidades de sobrevivir en 2014 no son mucho mejores de lo que eran en 1974. ¡En muchos casos, el tratamiento será más o menos el mismo!

No ha habido una revolución Verde. Todavía conducimos coches accionados por la combustión de gasolina, o peor aún, de diesel. No ha habido una nueva revolución de materiales (el grafeno lleva décadas sin dar resultados industriales). Y, después de los avances vertiginosos de inicios a mediados del siglo 20, la física parece (bosón de Higgs a un lado) estancada en un punto muerto. Sin hablar de las ilusorias pretensiones de ir a Marte, cuando no hemos conseguido que nadie vuelva a la Luna desde hace 42 años.

Y ante estos evidentes hechos, el autor del artículo se pregunta: ¿por qué se ha estancado el progreso?

A esta pregunta, se afana Michael Hanlon, en responder desde diversos frentes: propone cuestiones históricas, económicas, demográficas, habla sobre la obsolescencia programada, sobre un control de riesgo por parte de los estados demasiado estricto, que la inversión en investigación está hoy día en manos privadas en lugar de en instituciones públicas, etc. (podéis leer la propuesta completa desde el artículo original).

Sin embargo, no menciona la posibilidad que, en mi opinión, es la más plausible de todas (o quizás, la que engloba o generaliza al resto de propuestas): podría ser que, sencillamente, hayamos alcanzado ya el máximo (u óptimo) en cuanto a progreso se refiere: que, simplemente, no sea posible progresar más, porque el mundo tal y como es (sus leyes) no permitan mucho más que avanzar.

El propio artículo menciona el estancamiento en avances científicos en física:
"After the dizzying breakthroughs of the early- to mid-20th century, physics seems (Higgs boson aside) to have ground to a halt."
Cada progreso destacado en la historia de la humanidad, ha ido precedido por descubrimientos relevantes en física. Eso es un hecho. Y también es un hecho que hace casi medio siglo que no se consigue ningún nuevo hallazgo en físicas con posibles fines tecnológicos. Hoy día, lo único que hacemos, es exprimir al máximo las rentas de las innovaciones pasadas, pero podríamos estar cerca del óptimo a conseguir con tales conocimientos, y; por  otro lado, podría (podría sin duda) NO haber más jugo que sacarle al Universo; podría no haber forma de mejorar la producción o de obtener más energía útil por mucho que se invierta e investigase en física.

En realidad, con un crecimiento exponencial de la población como el que tenemos actualmente; y con este evidente estancamiento en los avances en física, podríamos estar cerca, no ya de la actual meseta (plateau) en el avance de la humanidad, sino a punto de comenzar a caer en picado en el progresar del hombre. Nuestra prepotencia innata no nos permite siquiera contemplar un escenario como el que propongo, donde no sólo no se avance sino que se retroceda en calidad de vida, y en tecnología disponible para las masas...pero el tiempo será el que dicte cómo será el porvenir, y no nuestra soberbia ;).

De hecho, muchos investigadores (que, por cierto, son marginados por "pesimistas") ya proponen este escenario de retroceso. El principal argumento que esgrimen es el peak oil (en realidad, hablan del peak everything: donde todo los recursos no renovables, con el tiempo, evidentemente se agotan, y eso nos da una bofetada en pleno egocentrismo). Se puede leer este artículo (de entre miles) a modo de ejemplo: http://crashoil.blogspot.com.es/2011/05/peak-oil-peak-copper-peak-iron-peak.html

En fin...

¡Un saludo!