domingo, 25 de enero de 2015

La indeterminación metafísica y sus consecuencias en cualquier tipo de conocimiento


Hace ya bastantes años (voy ya para viejo xDD), intenté mantener un debate por correo electrónico con el filósofo Antonio Diéguez Lucena sobre una serie temas que me parecen muy interesantes. Lamentablemente, el profesor Antonio Diéguez, por el motivo que sea, se limito a responder dándome las gracias por leer su obra y no mucho más. Voy a transcribir el correo electrónico tal cual se lo mandé; no porque tenga la esperanza de que el Antonio lea mi blog (que lo dudo horrores xDD), sino porque quizás a alguien le puedan interesar dichos temas propuestos.

Además, así aprovecho para recomendaros la lectura de las obras de este magnífico filósofo: http://webpersonal.uma.es/~DIEGUEZ/hipervpdf/Publicaciones.htm. A mí me gustó mucho su libro Realismo científico (podéis descargar gratuitamente el libro desde este enlace).

De todo lo que le escribí, mi interesa mucho la cuestión de si, el hecho de aceptar la imposibilidad del conocimiento metafísico, no implica, al mismo tiempo, y para ser congruentes, aceptar la imposibilidad de todo tipo de conocimiento.

Os dejo el correo completo para que veáis a qué me refiero con esto (¡Ojo! Este correo tiene bastantes años. No seáis demasiado críticos con lo que digo o como lo digo ;) ):

Saludos, Antonio. Soy un lector asiduo de sus obras y artículos. Ya le he escrito en varias ocasiones anteriormente.
En esta ocasión le escribo tras haber leído su libro Filosofía de la ciencia. Antes de nada, felicitarle como siempre, porque me ha parecido una estupenda introducción al campo de la filosofía de la ciencia. Un trabajo que se nota bastante trabajado, documentado, y sobre todo imparcial sobre las diferentes posturas con las que trabaja.
Tengo que confesarle, sin embargo, que leer su libro ha reforzado mi escepticismo. Es triste, pero cada vez estoy más convencido de que el hombre está condenado a la más absoluta incertidumbre. Porque, si dejamos el pragmatismo a un lado, y nos ponemos rigurosos, ¿qué conocimiento podemos formalmente justificar como objetivo? Creo que ninguno.

Es de sobra conocido que el ser humano no brilla por su humildad, y después de tantos años,  aún nos cuesta aceptar nuestras limitaciones cognitivas. Parece que no nos terminamos de creer lo evidente, que jamás justificaremos ningún conocimiento. Y cuando nos metemos en el terreno metafísico, ya ni hablamos.
Por ejemplo el debate sobre el realismo que usted tanto estudia. ¿Realmente tiene usted la esperanza de que en la historia futura en algún momento se llegará a decir: “bien, señores, y con esto ha quedado formalmente justificado y demostrado el realismo ontológico”? ¿Cómo podría ser esa fantástica demostración formal? Aunque claro, las posturas opuestas al realismo tampoco se pueden justificar, ni siquiera se puede negar formalmente el solipsismo.
Los éxitos tecnológicos de la ciencia de los siglos XIX y XX nos han hecho más presuntuosos de lo que ya somos por naturaleza. Sólo hay que leer el libro “El gran diseño” de Stephen Hawking. En mi vida he visto mayor arrogancia. ¡Si parece que ya tiene su querida teoría del todo!

Yo realmente creo que el avance científico –sea eso lo que sea- es totalmente cuestión de escalas. Me parece que hemos conseguido en poco tiempo, todo lo que estaba en nuestras manos conseguir. Es cierto que seguiremos avanzando en campos como la medicina, pero en física está casi todo dicho –todo lo que está a nuestro alcance, claro-. Cuando el Gran Colisionador de Hadrones, tras 16 años de construcción y muchos miles de millones de Euros de coste, no llegue jamás a amortizarse con resultados –y es evidente ya que no lo va a ser-, a ver quién es el guapo que convence para invertir el doble o el triple para intentar conseguirlo de nuevo. La economía manda en el mundo, y cuando deje de ser rentable investigar en física, se dejará de hacer. Y creo que no queda tanto para eso.
Además, me parece que la potencialidad metafísica pude desbaratar cualquier supuesta “ley”. Es algo parecido a la tesis de la infradeterminación de las teorías: Tenemos una teoría T que explica t fenómenos con sumo detalle, y que ha sido comprobado miles de veces de mil maneras diferentes. La cuestión es que, sea cual sea T, bien podría existir finalmente una realidad metafísica M que diera explicación de los t fenómenos, y que T fuera consecuencia de M.
Un ejemplo real, la teoría de la evolución. Es una teoría muy bien fundada desde diversas ramas científicas. La teoría sintética de la evolución explica la existencia de seres vivos complejos, así como de los restos fósiles, las evidencias embriológicas, etc. pero, como defienden los creyentes religiosos, bien podría ser la causa real el acto voluntario de un ser metafísico omnipotente (M -> t),  y que la teoría de la evolución no sea más que un engaño o ilusión creada también por ese ser (M-> T). ¡Y realmente puede ser así! Nadie, ningún científico, puede refutar dicha idea, ¡podría ser verdadera sin lugar a dudas! ¿Por qué no? ¿Puede algún científico justificar formalmente que no es cierto lo que dicen esos creyentes? ¡No! Y si no podemos demostrar que algo no puede ser, entonces ese algo puede ser. A lo sumo podemos tomar una postura escéptica, pero nada más.
Si la hipótesis metafísica M es cierta, la causa que explicaría los fenómenos no sería T sino M, por lo que lo que suponíamos una teoría bien establecida, es absolutamente errónea (la explicación de la diversidad de la vida sería M y no la evolución).  Como las hipótesis metafísicas son infinitas, y todas son potencialmente válidas, yo opino que ningún conocimiento es posible –ya que el conocimiento metafísico es inviable-.

Otro ejemplo es el que comentas en tu libro, que somos cerebros en cubetas conectados a un superordenador. Yo soy ingeniero informático, y la primera vez que programé una aplicación en 3D quedé impresionado.  Con qué facilidad es posible simular una realidad como la nuestra. No es nada descabellado que nuestro mundo sea resultado de la computación de un ente metafísico. En ese caso, ninguna de nuestras leyes sería más que el subproducto de una simulación externa, que sí sería la explicación real de los fenómenos. De nuevo, ¿hay –o habrá-alguna persona capaz de justificar que eso no es posible? No, porque las hipótesis metafísicas están blindadas ante la refutación. (Por cierto, qué fácil sería simular la aleatoriedad de la mecánica cuántica en un computador).
Yo soy consciente de que la actitud escéptica está mal vista, y tiene un velo de negatividad, pero es que es la postura más sensata, por favor. No podemos dejarnos llevar por el optimismo desbocado –a estas alturas ya no-, ni por la arrogancia de los científicos “modernos”.

Por cierto, Antonio; y cambiando de tema, estoy leyendo actualmente la obra de Schopenhauer, y me gustaría comentarte una cosa. Lo que él llama voluntad de vida –cuando se refiere a los seres vivos- me recuerda a los postulados de la psicología evolucionista. Esa voluntad ciega y sin sentido, me recuerda mucho a la tesis del gen egoísta, a la “voluntad” de los genes por permanecer y replicarse. ¿Sabes de algún autor que haya estudiado a Schopenhauer desde una perspectiva naturalista?

Y, por último; y perdona si te doy la lata. Una cosa. Estoy actualmente matriculado en la Universidad de Cádiz para hacer el doctorado en ingeniería. Estoy haciendo un proyecto de investigación previo en computación evolutiva, y ya luego haría la propuesta de proyecto de tesis. La cuestión es que no tengo claro si quiero hacer una tesis sobre computación evolutiva a secas –donde innovar no es fácil- o si orientar, como me encantaría, la tesis a un campo un poco multidisciplinar entre la IA y la filosofía. ¿Lo ves viable? ¿Tendrías alguna idea de tesis? Te agradecería enormemente cualquier ayuda en este sentido.
Bueno, pues no te molesto más. Muchas gracias por tu atención.

Recibe un cordial abrazo, y muchos ánimos para seguir con tus trabajos.

En resumen, la clave de todo lo que le comento a Antonio se puede resumir en esta frase:
Imaginemos una teoría T, que explica t fenómenos con sumo detalle, y que además ha sido probada miles de veces de mil maneras diferentes. La cuestión es que, sea cual sea dicha T, bien podría finalmente existir una realidad metafísica M que diera explicación de esos mismos t fenómenos y que, además, T fuera consecuencia de dicha realidad M.
Pero como el conocimiento metafísico formal es imposible (y pocos dudan hoy día de este punto), no podemos acotar de ningún modo las posibles metafísicas M imaginables.  Toda metafísica M es por lo tanto posible, ¡lo que implica que toda teoría T es contingente!

Por mucho que cierta teoría T haya sido corroborada empíricamente, no es posible asegurar que no haya detrás una metafísica imaginable M que la determine. Pero nuestro total desconocimiento de M nos impide asegurar que T seguirá cumpliéndose en el futuro. Es decir; que no podemos asegurar que los t fenómenos que T explicaba, seguirán ocurriendo de tal modo que cuadren dentro de dicha teoría.

Ejemplos prácticos de esto que digo le puse varios en el correo a Antonio, pero pongo uno más a continuación sin entrar en mucho detalle:

La teoría de la gravedad es una de las teorías más firmes y probadas de la historia de la humanidad. Dicha teoría T afirma, entre otras cosas, que existe una fuerza de atracción entre dos cuerpos proporcional a su masa e inversamente proporcional a la distancia r que los separa. No hay fenómeno observable t que no cuadre con esta idea (y no nos preocuparemos de la propuesta de la relatividad general, ni de los detalles matemáticos o teóricos concretos; la idea macroscópica es más o menos la misma: nos centraremos, por tanto, en que, macroscópicamente, los cuerpos masivos se atraen).

Es decir; que nos quedamos con la propuesta simplificada T' que dice que, macroscópicamente, los cuerpos masivos se atraen. Esto es algo archiconocido, pero; ¿realmente podemos decir que conocemos con esto algo del mundo? ¿Es T' un conocimiento inmutable; algo universal y necesario? Evidentemente, no.

No podemos asegurar formalmente que T' se cumplirá mañana. De hecho, existen infinitas metafísicas imaginables y posibles que harían a T' dejar de cuadrar con los hechos del mundo en cualquier momento. Nombro tres de ellas (de entre una infinidad):

1) El mundo es resultado de una computación trascendente (M). Es decir, que algo externo al mundo, determina, mediante una programación, cómo ocurren los fenómenos que observamos. La teoría T' correlaciona con los fenómenos, porque cuadra con la programación actual de dicho ente trascendente; pero no podemos asegurar que esa programación no cambie en un futuro. Y si la programación cambia, de modo que, por ejemplo, los cuerpos masivos se repelan en lugar de atraerse, T' dejará inmediatamente de ser una propuesta válida sobre el mundo. T' no era, después de todo, un conocimiento necesario de nuestro mundo.

2) Otro ejemplo podría ser que finalmente exista una esencia de algún tipo (M) detrás de los fenómenos, que determine que los cuerpos masivos se verán atraídos en proporción a su masa durante 15.000 millones de años, para luego sufrir una inversión fenoménica en la que los cuerpos masivos se repelerán durante otros 15.000 millones de años. Podría ser el caso, no hay modo de saberlo. Es una posibilidad que está ahí, y que hacen de T' una propuesta dudosacontingente.

3) Existe un ente metafísico (M), al que podemos llamar si queremos Dios, capaz de inducir ideas a nuestra mente. Ese ente podría haber inducido tanto fenómenos atractivos como repulsivos, pero decidió inducir, por algún motivo desconocido, fenómenos atractivos hasta ahora. Mañana, tal cosa podría cambiar. Igualmente, no hay modo de negar M, lo que implica que no hay modo de asegurar la validez necesaria ni universal de T'.

Me podría llevar horas escribiendo ejemplos, pero creo que el concepto está claro:

Como no conocemos (ni podemos conocer) nada sobre el conjunto de hipótesis metafísicas imaginables (M), cualquier teoría T debería ser tomada formalmente (que no pragmáticamente, ya que lo que se hace normalmente es ignorar el problema) por contingente y local.

Pero claro, queda la cuestión de si podemos tomar o no a estas afirmaciones contingentes y locales (T) como conocimiento del mundo: ¿puede ser una afirmación de este tipo un conocimiento?

Cualquiera puede llamar conocimiento a lo que le plazca, y por cierto que ahí se agarran muchos, pero; siendo honestos, si no podemos asegurar que sabemos cómo es y como será algo de nuestro universo, deberíamos humildemente aceptar que realmente no conocemos nada del mundo. Que todo es dudoso, y que cualquier tipo de conocimiento es imposible.

Un saludo, amigos.


sábado, 24 de enero de 2015

Las matemáticas de la vida (V)


Voy a terminar en esta entrada, por fin, el estudio completo de la línea de investigación que sigue el equipo de trabajo liderado por Jeremy England en el MIT.

Esta entrada es una continuación de otras entradas previas, y viene a ser un desarrollo matemático del ejemplo ideal que el equipo de Jeremy propone para defender su tesis. Es, como digo, un ejercicio teórico ideal, y no experimental. Están estudiando sistemas experimentales que apoyen sus ideas, pero de momento no hay nada demasiado concluyente (algunos pequeños casos empíricos que sí parecen corroborar lo que proponen, pero nada determinante aún). En cuanto haya alguna novedad, la comentaré por aquí ;).

Bueno, pues lo dicho, os dejo el desarrollo matemático completo del ejemplo propuesto (porque en el paper, como es lógico, se comen gran parte del desarrollo y algunos puntos son complicados de seguir). Subo, de mi puño y letra, el proceso detallado de los dos ejemplos que aparecen en el paper a partir de la página 14:

(Para ver las imágenes más detalladamente, pinchad en cada imagen, copiar su url, y abridla luego en otra pestaña del navegador. Desde ahí podréis hacer zoom.) 







Y esto es todo lo que hay de momento sobre el tema. En unos días, si saco tiempo, me gustaría hacer una simulación por ordenador de este ejemplo para poder ver visualmente lo que nos dice. Si consigo tiempo libre suficiente, subiré el programa en un applet de Java para que podáis verlo desde la web ;).

Un saludo.


Referencias utilizadas:

  1. http://www.englandlab.com/publications.html (web oficial del equipo de investigación. Aquí irán subiendo los avances que se produzcan en este asunto). 
  2. Perunov, N., Marsland, R., and England, J. "Statistical Physics of Adaptation", (preprint), arxiv.org, 2014. (Este es el paper de diciembre que ha levantado tanta expectación). 
  3. England, J. L. "Statistical Physics of self-replication." J. Chem. Phys., 139, 121923 (2013). (Este es un paper del 2013, donde el equipo comenzó a dar forma definida a toda la línea de investigación). 
  4. https://www.youtube.com/watch?v=e91D5UAz-f4#t=1720 (Vídeo con una charla del propio Jeremy England donde explica su línea de investigación).
  5. Para realizar la media de ciertas funciones, se hace uso de las funciones (no standard) de Bessel de primer orden modificadas http://mathworld.wolfram.com/ModifiedBesselFunctionoftheFirstKind.html


miércoles, 14 de enero de 2015

Las matemáticas de la vida (IV)


Después de reflexionar sobre el tema tratado en esta entrada, me gustaría hacer un nuevo intento de acercar las matemáticas desarrolladas en este fascinante trabajo. Esta vez, lo haré mediante el uso de un sencillo ejemplo práctico que nos va a permitir visualizar más fácilmente lo que significa cada término de la ecuación principal de la propuesta.

Mediante un proceso deductivo; y partiendo de una base física previa muy firme (su estudio descansa en la termodinámica y en la mecánica estadística), Jeremy England alcanza la siguiente ecuación:


Esta fórmula puede intimidar en un primer vistazo, pero ahora veremos que no es para tanto (puedes ver el proceso de desarrollo completo por el que se llega a esta fórmula desde esta otra entrada de mi blog). Veamos, pues, lo que esta fórmula significa mediante un sencillo ejemplo práctico:

A grosso modo, el trabajo de Jeremy, se basa en la afirmación de que, en sistemas lejos del equilibrio térmico, dirigidos por una fuente de energía externa y en contacto con un gran baño térmico de temperatura homogénea T, los sistemas macroscópicos se van a suceder siempre siguiendo una pauta muy concreta; pauta que es determinada precisamente por la fórmula anterior. Esta fórmula contiene cuatro términos, y nos indica que, cuanto mayor sea la suma aditiva de estos términos, más probable va a ser el estado macroscópico que representan.

Veamos, por lo tanto, en qué consiste cada uno de estos términos, puesto que van a determinar el modo en que un sistema macroscópico se va a comportar en el tiempo. Qué es probable que llegue a suceder, y qué no:

El primer término refleja que un macrosistema es más probable que se de, si hay muchas configuraciones microscópicas que lleven a dicho macroestado. Ocurre que, normalmente, hay muchos más microestados espacialmente desordenados que ordenados, por lo que un sistema macroscópico evolucionará a sistemas cada vez más caóticos.

Caso práctico:

Imaginemos un sistema imaginario, el cual sea una especie de tablero de tres en raya, con 9 recuadros donde podamos colocar fichas(9 estados posibles), y usando sólo 3 fichas(partículas) para ocupar dichos recuadros. En este sistema ideal tendríamos:

729 microestados posibles, donde las 3 fichas no conformarán un sistema "ordenado" del tipo tres en línea. Es decir, que hay 8 configuraciones posibles, para que las fichas estén en línea (3 verticales, 3 horizontales y las 2 diagonales), y 729 - 8 = 721 microestados donde las fichas no formarán una estructura de 3 en raya.

Según esto, la probabilidad de que encontremos al sistema en 3 en raya (8/729), son mucho menores a que lo encontremos en un estado más "desordenado" o caótico (721/729).

Pues bien; el primer término de la ecuación en estudio, viene a decir más o menos esto mismo, pero aplicado a sistemas reales.

Sigamos:

El segundo término indica que los sistemas macroscópicos evolucionan de modo que sea fácil (probable) volver al estado inicial de partida, tomando el mismo periodo de tiempo, y con sólo invertir los momentos de las partículas de los microsistemas que la pueden conformar. Es decir; que se suceden macrosistemas con mayor accesibilidad cinética, puesto que dichos sistemas son más probables de alcanzar.

Caso práctico:

Supongamos el mismo ejemplo del 3 en raya. Si el movimiento de las fichas estuviese regido por un vector velocidad de dos dimensiones (x,y), y teniendo en cuenta las colisiones y las leyes de Newton, es evidente que la media en la probabilidad de que un microsistema pase de un microestado a otro, va a depender de la configuración espacial y cinética inicial. Si queremos saber si, partiendo de un  microestado inicial i, es probable o no llegar a un microestado final determinado j, hay que estudiar como de complejo es volver desde ese j a el i inicial de nuevo, en el mismo tiempo invertido para ir de i a j.

Imaginemos que el microestado i en nuestro tablero de 3 en raya es el siguiente:

x1(1,1), x2(2,1), x3(1,2).

Si queremos comparar la probabilidad de que se llegue, pasados 5 segundos (contando un movimiento por segundo |v| =1 mov/seg.), a un microestado j:  x1(3,3), x2(2,1), x3(1,2), o a un microestado k: x1(3,1), x(2,2), x3(1,3); hay que comprar la reversibilidad de cada microestado. Para facilitar los cálculo, supongamos que sólo es posible el movimiento en vertical y horizontal:

Es evidente, que, en 5 pasos (5 segundos a un paso por segundo), el microestado k es más accesible o sencillo, en el sentido de que hay más modos, trayectorias o caminos, por los que se puede volver a estar en i si damos otros 5 nuevos pasos. En j, sólo hay 4 trayectorias por las que podemos volver al microestado i en otros 5 pasos, mientras que en k hay muchas más trayectorias permitidas que nos dejarían de nuevo en un estado como el de i.

Y eso es lo que quiere decir el segundo término. Cuanto más fácil sea volver al punto de inicio, más accesible es un camino, y; el hecho de que se pueda volver de más maneras posibles al estado inicial, es un indicativo de que ese camino es muy accesible y, por lo tanto, probable de que llegue a suceder.

El tercer y el cuarto término, hacen referencia a la cantidad de calor efectivo que se exhala hacia la fuente térmica, de media, en el proceso de que lleva de pasar del macroestado inicial al final. Se toma en cuenta el calor efectivo que se consume de media al pasar de cada microestado i que cumple el macroestado inicial, a cada microestado j que cumple el macroestado final. Es decir; la media del consumo de cada trayectoria de cada microestado del macroestado inicial hacia cada microestado del macroestado final. El calor efectivo se obtiene a partir de esta media (tercer término) restando la desviación típica (cuarto término) que viene a representar la fluctuación sobre dicha media debida a diferentes causas cinéticas.

Cuanto mayor es la media de energía disipada en forma de calor, y menor la desviación típica, mayor es la probabilidad de que ocurra ese macroestado concreto.

Caso práctico:

Usaremos el mismo ejemplo imaginario del tablero de 3 en raya, pero vamos a aumentar la cantidad de filas y columnas a 100x100, y las fichas a 30. La temperatura media de la fuente térmica la tomaremos como T=1.

Además, tomaremos el movimiento de una casilla en vertical u horizontal, como un incremento del calor expelido en una unidad.

Por lo tanto, el tercer y cuarto término, nos viene a decir que, un macroestado final determinado, será tanto más probable de ser observado, cuanto más calor efectivo (una vez restadas las fluctuaciones) sea necesario emitir de media para ser alcanzado.

Supondremos una fuente de energía externa, que se encargará de otorgar el movimiento cinético a las fichas (partículas). Supongamos que esta energía empuja a las partículas con una fuerza que es proporcional a función seno, cuyo valor se irá variando cada 50 segundos, en proporción a un aumento en 5 grados. El módulo de esta fuerza va a ser |F(x)| = |sin(x)|, con x = 0 grados, 5 grados, 10 grados..., y siendo la dirección de dicho vector fuerza aleatorio.

La probabilidad de que una ficha se mueva va a ser, pues, proporcional a |F|. Esto es algo equivalente a superar un potencial o barrera de activación de dicho movimiento. La dirección del movimiento será aleatoria en una dirección vertical u horizontal.

En un sistema como este, se puede dejar transcurrir cierto periodo de tiempo, y estudiar la cantidad de calor medio expelido (número de movimientos efectivos de las fichas). La teoría dice que un estado macroscópico es más probable, cuanto más y mejor sea capaz de disipar calor. En nuestro ejemplo mental esto se traduce en que, espontáneamente, el sistema puede evolucionar hacia macroestados que contengan una configuración en las fichas que permitan aumentar la media de movimientos y, por lo tanto, aumentando el trabajo consumido y expelido en forma de calor:

Si modificamos ahora el experimento mental, de modo que acordemos que cada ficha que tenga otras fichas vecinas adjuntas, verá modificada su probabilidad de activación en 5 puntos por cada vecina que tenga, veremos como comienzan a aparecer con el tiempo macrosistemas con patrones que, pese a poseer bajo valor para dos primeros términos según vimos antes, ocurren igualmente, debido a que la media de calor expelido es tan eficiente, que consiguen contrarrestar el bajo valor entrópicos de los otros dos términos.

Esto se debe a que, en lo sistemas lejos del equilibrio térmico como el que hemos estudiado, se produce una especie de competición entre los 4 términos de la ecuación que determina la probabilidad en la ocurrencia de los sistemas. De modo, que en ocasiones, es posible que exista una baja entropía interna (primer término) y poca accesibilidad cinética (estados que requieren de trayectorias complejas), pero que sin embargo son probables debido a que conforman estructuras muy eficientes en la utilización de la fuente de energía externa para realizar trabajo y disipar así calor.

Y de hecho, el mejor modo de disipar más eficientemente energía, es haciendo copias de ti mismo. Porque desde el momento en que se consigue una estructura material con buena eficiencia disipativa media; el mejor modo de disminuir las fluctuaciones térmicas (cuarto término de la ecuación), es realizando copias exactas de esa estructura que se mostró eficiente. En otras palabras: si eres muy bueno disipando energía, y además eres capaz de copiarte a ti mismo; la física te va a ayudar a dominar el entorno (más detalles en el paper). Por lo tanto, toda esta física básica, sería la esencia que habría detrás del origen de la vida en la Tierra.

Referencias utilizadas:

  1. http://www.englandlab.com/publications.html (web oficial del equipo de investigación. Aquí irán subiendo los avances que se produzcan en este asunto). 
  2. Perunov, N., Marsland, R., and England, J. "Statistical Physics of Adaptation", (preprint), arxiv.org, 2014. (Este es el paper de diciembre que ha levantado tanta expectación). 
  3. England, J. L. "Statistical Physics of self-replication." J. Chem. Phys., 139, 121923 (2013). (Este es un paper del 2013, donde el equipo comenzó a dar forma definida a toda la línea de investigación). 
  4. https://www.youtube.com/watch?v=e91D5UAz-f4#t=1720 (Vídeo con una charla del propio Jeremy England donde explica su línea de investigación).



viernes, 9 de enero de 2015

La probabilidad del cáncer

Vamos a suponer, de partida, lo que las teorías más tradicionales sobre el cáncer dan por supuesto: que el proceso que da origen al cáncer, es un proceso estocástico y lineal; donde ciertas mutaciones ocurridas al azar, confieren a una célula normal el estatus de maligna. En estas teorías, los factores ambientales mutágenos (tabaco, productos químicos, etc.) favorecerían el proceso, al aumentar la media de las mutaciones en la división celula. 

Hagamos el análisis de probabilidades de que un proceso así ocurra:


La tasa de mutación en los mamíferos sigue la distribución de 1 error por cada  2,2·10^9 bases núcleotídicas (http://es.wikipedia.org/wiki/Mutaci%C3%B3n#cite_note-14). 

Suponemos la alteración de, al menos, 100 genes en la aparición del cáncer maligno.

C = “número de genes alterados mínimos para que aparezca el tumor maligno” = 100 genes.
T = “total número de genes en el genoma humano” = aprox.  20.000 genes (http://es.wikipedia.org/wiki/Genoma_humano).

P(M) = C / T = 100 / 20.000 = 0.005, siendo P(M) =  “la probabilidad de que si se altera un gen, que este sea de entre los 100 tumorales y no otro”.

P(D) = 1 / N = 1 / 2,2·10^9  = aprox. 0,0000000005, siendo P(D) = "la probabilidad de error en cada división".

A = “se altera un gen con capacidad tumoral en una división”
P(A) = P(D∩M) = P(D)·P(M) = 0,0000000005 * 0.005 = 0,0000000000025 (probabilidad de que en una división ocurra una alteración,  y de que esta alteración ocurra en un gen con un potencial de otorgar capacidad cancerígena).

Sigamos:
La probabilidad de que en una división se toque un gen con potencial tumoral es pues de  0,0000000000025. Pero también hay que tener en cuenta, que esa mutación en el gen debe ocurrir en las bases correctas y del modo correcto; de modo que la célula consiga la capacidad adecuada y no otra que la haga inviable o la mate:

Hay 20.000 genes en el hombre, y 3·10^9 pares de bases, por lo que; de media, cada gen tiene 150000 bases.

P(G) = 150000 * 100 / 3·10^9 = 0,005, siendo P(G) = "probabilidad de que, si se copia mal una base, que sea una base dentro de un gen con potencial de favorecer la malignidad".

Siendo muy generosos, y para facilitar cálculos; vamos a suponer que para conseguir despertar una propiedad de malignidad en un gen con potencial para ello, hay que modificar sólo 1 base concreta:


P(G') = 1 / 150000 = 0,0000066, siendo P(G') = "probabilidad de que si se altera una base dentro de un gen con potencial cancerígeno, que sea la base correcta que da el potencial, y no otra base no deseada".


P(G'') = P(G)·P(G') = 0,005 * 0,0000066 = 0,000000033, siendo P(G'') = "la probabilidad de que si se copia una base, esté dentro de un gen con potencial cancerígeno, y de que además se copia la base que despierta esa propiedad y no otra".


Por lo tanto:

Si A' = “en una división ocurre un error al copiar una base, dicha base pertenece a un gen con potencial cancerígeno, y además la base que muta es la adecuada dentro del gen para despertar la propiedad de malignidad”.

P(A') = P(D∩G'') = P(D)·P(G'') = 0,0000000005 * 0,000000033 = 0,0000000000000000165 (en una división, ocurre un error en una base, y esa base es la adecuada para despertar una propiedad cancerígena).

Según algunas fuentes, se produce un millón de divisiones celulares cada minuto, es decir; 1440 millones de divisiones al día. La media de edad está en 70 años (aprox.), por lo que se producen una media de:

70 años = 70 * 365 = 25550 días * 1440 millones al día = 36792000000000 divisiones durante toda una vida.

La distribución de probabilidad que indica la probabilidad de un determinado número de aciertos, tras n repeticiones es una binomial(http://es.wikipedia.org/wiki/Distribuci%C3%B3n_binomial).

Así que, la probabilidad de que se acumule de un modo estocástico en una misma célula una alteración en los 100 o más genes implicados en la aparición del cáncer; teniendo en cuenta las 36792000000000 divisiones que tienen lugar durante toda la vida de un hombre es la siguiente:

X ~ B(367920000000000,0000000000000000165)

Como el cálculo de una binomial con números tan grandes es complicado, vamos a aproximar la misma a una distribución normal:

Media  = n * p = 36792000000000 * 0,0000000000000000165 =  0,000607068
Desviación típica = sqrt(n * p * q) = sqrt(0,000607068 0,9999999999999999835) = 0,024638749

Se aproxima pues a X ~ N(0,000607068, 0,024638749).


Como se ve, de un modo puramente estocástico, es prácticamente imposible que durante la vida de una persona se produzca la acumulación de las cien o más mutaciones que dan lugar al cáncer. Es más, para aumentar la probabilidad lo suficiente aumentando el número de mutaciones medias por cada división, habría que pasar de 2,2·10^9  a un orden de magnitud 4 o 5 veces mayor:  es decir, un error en la copia por cada 2,2·10^4 bases. Esto no hay mutágeno que lo logre y, de lograrlo, mataría al individuo por mal funcionamiento del organismo en general, antes de que pudiese aparecer un cáncer.


Para que se pudiese dar un sólo cáncer de modo totalmente aleatorio, haría falta contar las divisiones celulares totales de 10 millones de personas para que se pudiese dar un caso. Y todo esto, además, sin tener en cuenta la capacidad que tiene el cuerpo de defenderse. Lo que podría llevar a la muerte de líneas tumorales antes de que pudiesen acumular todas las mutaciones necesarias. De un modo aleatorio (y ayudado por factores ambientales), se podrían dar, siendo más realistas, quizás, un caso por cada cien millones de habitantes.


Sin embargo, y por desgracia, el cáncer es algo mucho más común en la sociedad: ¿cómo puede ser?


La única solución imaginable, es la de que el proceso que da origen al cáncer no siga realmente una proporción lineal. Que algún mecanismo facilite mucho su ocurrencia. Algo, capaz de conseguir acumular esas mutaciones sin dejarlo todo en manos del azar. Y este mecanismo, no puede ser más que el proceso de selección natural darwiniana.


De hecho, análisis similares a los realizados en esta entrada, son los que han levado a mucho científicos, a proponer el origen del cáncer, como el resultado efectivo de un proceso de selección natural interno al organismo; donde acontecería una competición, en la que las células que mejor se rebelan contra el control del organismo, serían las que más se replicarían y sobrevivirían. De este modo, una vez acontecieran unas pocas circunstancias previas, daría comienzo una competición interna entre una determinada cepa celular y el resto del organismo: dicha cepa se vería favorecida por un proceso de selección natural que favorecería la acumulación de mutaciones con capacidad de malignidad de un modo no lineal, y de no ser pronto detenida, acabaría por desarrollar con el tiempo todas las características que conocemos como cáncer.


Un saludo.


martes, 6 de enero de 2015

Las matemáticas de la vida (III)


Esta entrada es la continuación de la serie de artículos que he ido escribiendo estos días sobre el trabajo del equipo de investigación liderado por Jeremy England (http://www.englandlab.com/publications.html).

En la anterior entrada, vimos el desarrollo matemático completo del trabajo de estos autores. En concreto, descubrimos el modo en que se alcanzan las fórmulas fundamentales en las que se basa luego Jeremy para postular sobre el origen y desarrollo de la vida. Recordemos cuales eran estas fórmulas:

(8)

(12)

A partir de todo el desarrollo físico-matemático detrás de estas fórmulas, las cuales han sido ampliamente revisadas y se toman como válidas, el equipo de investigación hace una propuesta sobre el posible origen y desarrollo de la vida. Vamos a ver en que consiste esta propuesta:

Primero, señalar que, en realidad, no vamos a trabajar con todas las trayectorias posibles en que se puede ir desde un macroestado a otro; sino que sólo vamos a tener en cuenta los caminos que aglutinen la mayor probabilidad, descartando los demás, ya que apenas van a influir en el resultado. Esta simplificación la hacemos de modo que sea más sencillo el estudio ulterior, pero aún así los resultados del estudio se pueden generalizar sin problemas.

Para comprender lo que la fórmula (12) nos quiere decir, vamos a imaginar situaciones en las que dejamos fijos ciertos términos de la parte derecha de la ecuación, y veremos qué consecuencias tiene en la parte izquierda:

Si fijamos todos los términos de la derecha, menos el primero, podemos comprobar que este primer término resulta ser el familiar concepto termodinámico que nos dice que, en un sistema no dirigido y en equilibrio, un macroestado es más probable, si se corresponde con un volumen grande del espacio de fases. Es decir; que cuanto más microestados compartan el mismo macroestado, más probable será observar éste. 

Si fijamos ahora todos los términos menos el segundo, vemos que no tiene análogo en equilibrio termodinámico (como el anterior), y que es, además; de naturaleza cinética. Este término nos dice que, en una cantidad dada de tiempo, es más probable que un sistema se propague a un macroestado desde el cual es más fácil volver atrás en la misma cantidad de tiempo. Esto es así, porque cuanto mayor sea el numerador de este término, mayor será el resultado del cociente, lo que modifica el resultado de la parte izquierda de la ecuación (que indica la probabilidad de un macroestado sobre otro).

Para poder estudiar los otros dos términos con claridad, vamos a imaginar un sistema como el siguiente: un sistema donde el espacio de fases completo, constituido por múltiples partículas, se encuentra dividido en macroestados que tienen un subvolumen de fases de igual tamaño, y que son cinéticamente todos igual de accesibles desde la disposición inicial. De este modo, habremos conseguido el equivalente de fijar los dos primeros términos de la ecuación, para poder estudiar los dos restantes. Sin embargo, hay que hacer notar que; aunque las subdivisiones sean de igual tamaño y accesibilidad interna, pueden constituir de todos modos, muy diversos grupos de configuraciones microscópicas, las cuales tendrán, a su vez, diferentes propiedades físicas. 

Según lo dicho, cuando en un sistema subdividido como el anteriormente propuesto, observamos una preferencia o mayor tendencia, hacia una salida o resultado determinado, debe ser causado o seleccionado por algún tipo de presión que empuje a que el resultado de la resta del tercer y cuarto término sea más positiva.

Dados un macroestado inicial I y un macroestado final II; el tercer y cuarto término de (12) dependerá de todas las partículas del sistema: de como las partículas en ese sistema interactúan unas con otras, y con el campo externo, durante el intervalo de tiempo entre t = 0 y t = τ, mientras la temperatura del baño térmico se mantiene. La clave entonces, es saber cuales son las propiedades que puede hacer a un macroestado tener un mayor valor de los dos términos en estudio que otro.

Para aumentar el valor del tercer término, hay que aumentar la cantidad de calor disipado; y para este fin se puede actuar de dos maneras: o yendo hacia estados internos con una menor media energética (disipando calor en el proceso), o, en sistema dirigidos, utilizando más y mejor la energía externa que entra en el sistema para realizar más trabajo, el cual puede ser luego expelido en el baño térmico como calor.

La parte crucial, es entender que no todas las configuraciones microscópicas disponibles para un sistema van a tener la misma capacidad para aprovechar la fuente externa para generar trabajo. Y el hecho de que exista esta diversidad, permite que pueda haber una tendencia en los sistemas dirigidos en encontrar macroestados que aumenten la media de calor expelido para ser alcanzados, y aumentar así el tercer término.

Sin embargo, también tenemos que tener en cuenta el cuarto término, que hace referencia a las fluctuaciones en el calor medio que el macrosistema expele para ser alcanzado. Por lo tanto, vemos que la tendencia es a suprimir las fluctuaciones y a mejorar la eficiencia de la generación y disipación de calor sobre todas las historias posibles que pueden llevar a producir un macroestado determinado.

Así, aunque los dos primeros términos de (12) son importantes, y nos dicen que el sistema va a tender hacia un mayor desorden interno debido a su volumen de fase, y a las fluctuaciones térmicas, y hacia sistemas más cercanos al sistema inicial (cinéticamente más accesibles); bien puede ser el caso de que nos encontremos, de entre una larga colección de partículas, determinados conjuntos de configuraciones de entre todas las disponibles que, aunque sean de baja entropía interna (configuraciones ordenadas), y de poca accesibilidad al estado inicial; posean, sin embargo, unas excepcionales propiedades dinámicas, que les otorguen un gran ajuste a la fuente de energía externa concreta a la que estén sometidas. De este modo, ese mayor ajuste a la fuente externa, podría permitir a dicha configuración realizar un trabajo superior (con la consiguiente disipación de calor extra), de modo que el aumento de valor en la resta entre el tercer y cuarto término, superaren con creces el bajo valor del primero y el segundo, haciendo a dichas configuraciones de baja entropía interna y baja accesibilidad inicial como probables, si se dan las condiciones adecuadas en el ajuste del microestado a la fuente externa, de tal modo que se supere de un modo notable, la tendencia de los dos primeros términos.

Y esta es la clave de todo el estudio. Estas configuraciones de partículas que se ajustan lo suficientemente bien a la fuente externa de energía, como para poder generar un trabajo tal que el calor que disipen hagan que sus configuraciones sean físicamente probables, es lo que constituye la vida. Eso es la vida tal y como la conocemos: estructuras complejas y ordenadas, excepcionalmente ajustadas para realizar trabajo y disipar calor.

Ahora comprendemos que las configuraciones de los seres vivos, no sólo no contradicen las leyes termodinámicas, sino que, al contrario, son debidas a la física subyacente a la termodinámica. Según palabras del propio Jeremy England, la aparición de la vida, dadas unas condiciones determinadas (un sistema lejos del equilibrio térmico, y dirigido por una fuente externa y con acceso a una fuente térmica), es cuestión de tiempo si existen configuraciones de partículas capaces de ajustarse a la fuente y disipar energía con la suficiente eficiencia.

No es raro, dice Jeremy, que en un sistema como el formado por la Tierra (lejos del equilibrio, con una atmósfera y océanos a modo de fuente térmica, y dirigidos por la energía del Sol), sea sólo cuestión de tiempo que una configuración de partículas de lugar a lo que todos entendemos por una planta.

En el trabajo publicado, se ven más tarde una serie de ejemplos y explicaciones añadidas, pero lo fundamental ya lo hemos visto. Si os ha interesado el tema, y queréis conocer más, podéis conseguir información extra en la web del equipo de investigación.

Y nada más. Este tema me ha apasionado, y quiero seguir investigando sobre él. Espero, además, nuevos avances por parte de este equipo, y; sobretodo, comprobar si estos chicos del MIT consiguen pruebas experimentales que apoyen todo lo que dicen.

Un abrazo.

lunes, 5 de enero de 2015

¿Qué es el cáncer?


“Nada en biología tiene sentido si no es a la luz de la evolución”
Theodosius Dobzhanski

En el año 2001, Enrique Meléndez-Hevia, Catedrático de Bioquímica y Biología Molecular en la Universidad pública de La Laguna (en las Islas de Gran Canaria), se encargó de preparar el discurso de apertura del año académico 2001-2002, en dicha Universidad.

Para ello, escribió una interesante publicación, a la que tituló: "La selección natural y la termodinámica en la evolución biológica: del origen de la vida al cáncer", y que podéis descargar gratuitamente desde el siguiente enlace

En este gran trabajo, el profesor Meléndez, se propone cuatro objetivos: en una primera parte, se encarga de hacer una profunda exposición de la teoría evolutiva traspasando la biología, y acercándose a la misma, desde un punto de vista biofísico. En el segundo bloque, hace un repaso a las tradicionales críticas que se han ido repitiendo sobre la teoría de la evolución por selección natural, y posteriormente se encarga de dar respuestas a dichas críticas. Posteriormente, en una tercera parte, se encarga de dar una moderna definición sobre qué la vida; para terminar, en el cuarto bloque, con una exposición sobre el cáncer, por qué se produce y cómo lo hace. Para dar respuesta a estas preguntas, el profesor utiliza el contenido teórico tratado en los tres bloques anteriores. Vamos a limitarnos a estudiar lo tratado en este cuarto bloque:

¿Qué es el cáncer?

El hombre es un organismo multicelular,y se distingue de una población de bacterias del mismo tamaño, en que todas sus células trabajan con un objetivo común, gracias a un complejo sistema de control centralizado. El cáncer, es un proceso de rebeldía, en el que una agrupación de células consiguen burlar este control, y emprender una vivencia independiente, y beligerante, con el resto del organismo. No se trata solo de un crecimiento celular masivo y descontrolado, característica que comparten con los tumores benignos, sino que sus células son agresivas: atacan al resto de células con armas químicas que crean para tal efecto modificando parte de su metabolismo; despilfarran,a demás, deliberadamente los recursos del conjunto del cuerpo, y se afanan por dispersarse por otras zonas del cuerpo, implantando nuevos núcleos de crecimiento.

Es crucial preguntarse sobre por qué ocurre esto, cómo ocurre, cómo puede evitarse, y cómo puede combatirse una vez que se ha desencadenado el proceso. En el cuarto bloque del trabajo, el autor ofrece una explicación teórica para cada una de ellas. Veamos en qué consiste dicha propuesta:

Para comenzar, vamos a señalar algunas aclaraciones que el profesor realiza sobre el cáncer:

- El cáncer, nos dice Enrique Meléndez, es una enfermedad, pero las células cancerosas no son células enfermas (aparte de quizás alguna lesión metabólica que no parece molestarles demasiado), igual que una bacteria que nos produce una enfermedad, no es una bacteria enferma. Las células cancerosas gozan de salud, y por eso resulta muy difícil eliminarlas, y por eso son tan agresivas.

- El cáncer no es una enfermedad genética. Debemos reservar esta denominación a las enfermedades como el daltonismo, la hemofilia, o la glucogenosis de tipo II, cuya causa sea exclusivamente la estructura anómala de uno o varios genes, y que se transmitan por herencia. El cáncer no pertenece a este grupo. Y el que se descubra que un cierto conjunto de alteraciones genéticas transmisibles por herencia de padres a hijos pueda determinar una mayor predisposición a adquirir el cáncer, tampoco la convierte en una "enfermedad genética", porque es fácil demostrar que esa particularidad pueden tenerla absolutamente todas las enfermedades; incluidas las más típicamente infecciosas como la gripe o la tuberculosis; y entonces tendríamos que decir que todas las enfermedades son genéticas. Por supuesto que intervienen genes en el desarrollo del cáncer (¿en dónde no?), y desde luego, para que se produzca el cáncer muchos de ellos tienen que alterarse, pero eso no la califica como enfermedad genética. Es como si dijésemos que el león es una especie genéti- ca, o que el hígado es un órgano genético. Por supuesto que ambos tienen una estructura y una función determinados por genes, pero también lo tienen todas las demás especies y órganos.

- El cáncer tampoco es una enfermedad infecciosa. Aunque hay ciertos tipos de cánceres que se pueden transmitir por virus en los animales (no en el hombre) el cáncer humano no puede ser clasificado como una enfermedad infecciosa, y no es, por tanto, una enfermedad contagiosa. Puede haber, desde luego ciertas infecciones por virus o por bacterias cuya infección aumente la probabilidad de contraer cáncer, porque interfieran en el metabolismo o en el funcionamiento del aparato mitótico, pero no más que otros factores ambientales.

- El cáncer no es una enfermedad degenerativa, porque las enfermedades degenerativas, como la artrosis o la diabetes de tipo II, son procesos pasivos, mientras el cáncer es un proceso activo, en el que una serie de células se manifiestan en rebeldía contra el sistema de coordinación general; consiguen salvar la barrera inmunitaria de control, y finalmente declaran una especie de guerra civil contra todo el organismo.

Características bioquímicas y genéticas de las células cancerosas.

Podemos agrupar el conjunto de características que comparten las células cancerosas, en dos grupos diferenciados. Un primero grupo, que aglutina las características bien comprendidas y que parecen lógicas en el contexto de la enfermedad, y un segundo grupo, que conforman una serie de características que no cuadran bien con lo que la lógica nos haría esperar. Este segundo grupo, normalmente es ignorado en las propuestas explicativas tradicionales que se han ofrecido sobre el cáncer. Sin embargo, una teoría científica debe ser un planteamiento formal capaz de explicar todos los hechos, y todas las observaciones empíricas.

Grupo A. Características lógicas (que se comprenden bien)

Alcalinidad: El organismo en su conjunto, parece estar diseñado para funcionar con pH ácido, mientras que las células cancerosas son alcalinas, y además segregan productos alcalinos que siembran el pánico entre las células que tienen alrededor.

Proteasas: Las proteasas son enzimas que digieren las proteínas, rompiendo los enlaces que unen los aminoácidos que las componen. Debido a su potencial agresividad, su uso es muy delicado, y su secreción está muy controlada. Las células cancerosas segregan muchos tipos de proteasas indiscriminadamente, produciendo graves daños en las células normales del tejido del cual proceden, y abriéndose camino para invadir territorios nuevos

Angiogénesis: La angiogénesis es la propiedad que tienen ciertas células de inducir el desarrollo de vasos sanguíneos en el tejido donde se encuentran. Esta es una propiedad fundamental durante el desarrollo del organismo, y sigue activa en ciertos tejidos del adulto. Las células rebeldes de los tumores cuentan con esta propiedad para proporcionarse reservas de oxígeno y nutrientes.

Glicoproteínas de membrana: Las células normales se mantienen unidas y en comunicación mediante varias glicoproteínas de membrana que tienen propiedades adherentes. Las células cancerosas carecen de algunas de estas proteínas o las fabrican con su estructura alterada, y así quedan libres para invadir otros territorios

Oncogenes y genes supresores de tumores: El protooncogén, es un gen normal, el cual, si sufre la mutación pertinente, promueve la aparición de un tumor, pasando entonces a llamarse oncogén. Los llamados genes supresores de tumores, o antioncogenes, son también genes normales que cumplen en la célula normal la función antagónica a los protooncogenes. Su alteración también puede ser una de las partes del desarrollo del cáncer, pero no necesariamente.

Aneuploidía: Se trata de un fenómeno que se produce como consecuencia de una división celular (mitosis) anómala, en la cual el material genético que se ha replicado para formar dos juegos idénticos, no se reparte por igual en las células hijas, quedándose una de ellas con uno, dos o más cromosomas de más y otra con la consiguiente parte de menos. Normalmente ésta última muere porque es inviable al faltarle cierta información imprescindible, pero la que lleva una sobrecarga de cromosomas puede sobrevivir aunque tenga descompensado su genoma. El cien por cien de las células cancerosas resultan ser aneuploides.

Grupo B. Características difíciles de comprender 

Respiración: Las células cancerosas respiran poco; su consumo de oxígeno es muy deficiente en comparación con sus necesidades energéticas.

Glicolisis: Las células cancerosas tienen una actividad enorme de la glicolisis anaerobia, y ese aumento de actividad glicolítica es muchísimo mayor del que se requiere para cubrir su gasto energético.

Efecto Crabtree: El efecto Crabtree ocurre tras la adición de cantidades altas de glucosa al medio de cultivo de las células cancerosas, lo cual produce una inhibición de la respiración. Este hecho no es lógico, ya que la glucosa no es un sustrato obligatorio de la glicolisis anaeróbica.

Glutamina: La célula cancerosa es un enorme consumidor del aminoácido glutamina, mucho más que cualquier célula normal. Pero no utiliza la mayor parte del nitrógeno que transporta, sino que la hidroliza para dar ácido glutámico y amoniaco; descarta el amonio (lo más preciado) y consume el glutámico como si fuese glucosa (la cual es mucho más barata), y además de ello obliga a desperdiciar más nitrógeno.

Vía de las pentosas: Ciertas células cancerosas exhiben una actividad enorme de la vía de las pentosas-fosfato, pero las necesidades de ribosas de estas células no justifica en absoluto la actividad desmesurada de esta vía, y la mejor prueba de ello es que a otros tipos de cáncer que crecen a la misma velocidad no les pasa eso.

Vitaminas: Se han descrito deficiencias importantes en vitamina C y en tiamina (vitamina B1). Los pacientes de cáncer excretan cantidades muy grandes de tiamina. ¿Cómo puede haber una carencia nutritiva cuando se eliminan cantidades muy grandes del producto necesario? Si es esa eliminación la causa de la carencia, ¿cuál es el motivo de esa eliminación?

Las tradicionales teorías explicativas sobre el cáncer, normalmente son teorías bastante inconsistentes, en el sentido de que presentan una descripción totalmente pormenorizada de los acontecimientos que ocurren durante la transformación de las células, y de las características moleculares de las células cancerosas (sólo toman en cuenta las del grupo A). Estas teorías se limitan a hacer una pequeña lista de pasos necesarios para que una célula se convierta en cancerosa (algunos autores dividen el proceso en 4 pasos, otros en 7, etc.), pero ni en 4, ni en 7 pasos; ni siquiera en cien pasos (100 mutaciones) se consigue pasar de una célula normal a una cancerosa. Estas teorías sólo son una mera descripción de los hechos, que apenas aclaran nada. Y además, nos dice, Enrique Meléndez, basta un simple cálculo para comprobar lo inconsiste de estas propuestas:

La probabilidad de que una célula somática de una persona, acumule tres mutaciones a lo largo de su vida, es de una por cada 100 personas vivas; el mismo cálculo nos dice que si se necesitan 5 mutaciones la probabilidad es de una por 2.000; si fuesen 13 tendríamos 10 casos en toda la población mundial; y si se necesitasen acumular 100 mutaciones (y con eso nos acercamos ya un poco más a la realidad) necesitaríamos una población del orden de 10^66 personas, es decir, el equivalente a una galaxia con todos sus planetas habitados, para tener un caso.

Para poder comprender, entonces, la ocurrencia de este hecho tan improbable, hay dos soluciones: la primera, es reducir el número de pasos (reducir el número de mutaciones acumuladas requeridas), lo cual cada vez nos lleva a un modelo más irreal (como dice, el profesor Enrique: nos lleva, al equivalente de pretender transformar un antílope en un león en dos o tres pasos).  La otra solución que normalmente se propone, es la de que el cáncer sea algo así como una enfermedad programada que está dormida en nuestro genoma, pero que puede desencadenarse por un ligero toque en un gen (diana) cuya alteración desencadenaría automáticamente todo lo demás. Pero resulta que cada cáncer sigue una sucesión de eventos muy particular. En el organismo humano se han reconocido 100 tipos diferentes de cáncer junto con sus variantes. ¿Habría entonces que admitir que hay 100 programaciones distintas (no ya 100 "genes del cáncer", sino 100 protocolos de desarrollo) programados en nuestro genoma?

Ninguna de las dos soluciones parecen demasiado prometedoras; por lo que el profesor propone afrontar el asunto desde otro punto de vista: Si consideramos el cáncer desde el punto de vista del organismo, es sin duda una enfermedad, pero si lo consideramos desde el punto de vista de las propias células cancerosas, no es eso, no es ya una lesión, sino una liberación; un proceso de independencia, con guerra civil (agresión interna) incluida. Se trata pues, de analizar por qué se produce este fenómeno—que causas lo motivan—qué tiene que ocurrir para que tenga éxito, y cuál es la forma más eficaz de llevarlo a cabo.

¿Por qué se produce el cáncer? — Termodinámica - Entropía

Desde el punto de vista de la termodinámica, la tendencia normal de cualquier célula, es la de hacerse cancerosa; como la tendencia normal de cualquier piedra que esté en lo alto de un monte es rodar por la ladera hacia el valle (es recomendable leer el primer bloque del trabajo para comprender bien este punto). Si las piedras no lo hacen, es porque algo las retiene, pero si se les quitan los impedimentos físicos que las mantienen sujetas, rodarán sin remedio ladera abajo. Por esa razón, un problema que hubo que solucionar en la evolución para construir los organismos multicelulares, fue desarrollar un completo sistema de control (aparte del sistema de coordinación de funciones) para bloquear cualquier intento por parte de sus células de independizarse, es decir, de hacerse cancerosas. Las células de un organismo multicelular, por tanto, siempre estarían procurando formar brotes de rebeldía. Y aunque este hecho puede parecer antinatural a simple vista, es así, por mandato de la física.

Las células de un organismo multicelular intentan comportarse como si fuesen seres vivos independientes, o al menos tienen esa tendencia subyacente, ya que la termodinámica determina la tendencia a la dispersión, a la diversificación, a la independencia, a la desorganización y a complicarlo todo. El cáncer genera entropía porque desorganiza el sistema, dispersa las células, etc. De manera que, en realidad, el cáncer es un objetivo termodinámico al cual tienden todas las células de los organismos multicelulares; objetivo que consiguen o no, según las posibilidades o las dificultades que se encuentren en el camino, la oportunidad, los recursos que tengan, la forma de aprovecharlos, etc. El cáncer se producirá espontáneamente siempre que lo permitan las posibilidades físicas y la química de la célula disponga de los recursos necesarios para ello. Potencialmente, cualquier célula del cuerpo tiene material y suficiente acervo genético para emprender esa aventura; el problema es que mucho de ese material no está disponible porque la célula está obligada a cumplir órdenes.

¿Qué tiene que hacer una célula para convertirse en cancerosa? 

Lo mínimo que tiene que hacer una célula para conseguir su objetivo es:
  1. Desconectar cualquier mecanismo de muerte programada (apoptosis) que pueda ponerse en marcha al desobedecer las órdenes del control central. 
  2. Independizarse de todas las órdenes del control central. 
  3. Adaptar su metabolismo para transformar la industria química de paz en una industria química de guerra: es decir; hacerse agresiva, de modo que no puedan frenarla el sistema inmune del organismo. 
  4. Invadir. Independizarse de los mecanismos que la tienen sujeta físicamente en su espacio.
¿Cómo puede ocurrir la transformación? — Selección natural 

 La cuestión capital, se reduce entonces a comprender cómo puede una estirpe celular ser capaz de independizarse del control central de funciones, de poder superar el control de orden público del sistema inmune, y de ser capaz, al mismo tiempo, de abrirse camino entre toda la organización del organismo vivo, a base de matar a todo lo que le estorbe para conseguir su propósito. El cálculo sobre la probabilidad de acumular cientos de mutaciones (que hicimos antes) demuestran que tal empresa es sumamente difícil. Si hubiese que depender del azar para que se produjese tal acontecimiento, el cáncer sería una enfermedad desconocida. Sin embargo, la Naturaleza dispone de un mecanismo que hace posible conseguir con relativa facilidad, una empresa aparentemente tan improbable. Se trata de la selección natural darwiniana. La célula cancerosa es así, según el profesor, como el linfocito B, el león de la sabana, o el ojo del calamar, un producto de la selección natural. El cáncer no sería, pues, un proceso cuyo desarrollo esté determinado y tenga que seguir siempre el mismo camino.

La necesidad de acudir al mecanismo de selección natural obliga a añadir dos hechos a la lista de pasos necesarios (que vimos antes) para la transformación cancerosa. La selección natural necesita, para funcionar, tratar con un gran número de generaciones, y con una determinada tasa de alteraciones genéticas. Y dado que nos encontramos en un organismo multicelular, cuya vida es relativamente corta, y hay muy poco tiempo disponible para conseguir una evolución significativa, se debe acelerar el proceso, para lo cual se puede actuar a dos niveles: acortar el tiempo de generación, o aumentar la frecuencia de mutaciones. Por lo tanto, en el trabajo se propone la siguiente secuencia de hechos previos como la más factible:
  1. Aneuploidía: Primero una serie de células se hacen aneuploides. Este paso es decisivo. No es que sea estrictamente obligatorio, pero si se consigue todo puede ser mucho más fácil, ya que la aneuploidía produce una altísima inestabilidad genética y con ello, la frecuencia de mutaciones puede ser mucho más alta.
  2. Desconexión de la apoptosis: A continuación, esas células deben sufrir una serie de mutaciones para adquirir inmortalidad permanente. De otra forma su programa de suicidio se pondría en marcha a la menor señal de independencia. 
  3. Independización del mecanismo de control mitótico: A continuación esas células deben sufrir una serie de mutaciones para adquirir la independencia reproductora: la capacidad para reproducirse al margen de las órdenes superiores.
  4. Activación de mitosis rápida: Posteriormente, esas células deben sufrir una serie de mutaciones para adquirir una velocidad de reproducción muy superior a la normal. Como ya hemos dicho, la secuencia de hechos no tiene por qué seguirse en este orden, aunque éste sería el orden más favorable. Si no se ha dado la aneuploidización, pero sí los siguientes 3 pasos, lo que tenemos es simplemente un tumor benigno, que es poco probable que prospere a maligno. Sin embargo, si la aneuploidización tuvo  lugar; entonces la situación es más grave, ya que el estado aneuploide es potencialmente muy mutagénico debido a la inestabilidad genética que produce, por lo que es mucho más probable que progrese hacia la malignización.
  5. Activación del programa de mutación rápida: Esta condición no es estrictamente imprescindible pero si se adquiere puede conseguirse la transformación en un tiempo récord.
Llegados a este punto, ya se puede disparar un mecanismo de selección natural rápida. Los siguientes pasos son las condiciones necesarias para adquirir definitivamente la condición de célula cancerosa:
  1. Pérdida de la inhibición por contacto, y pérdida de la capacidad de comunicación con las células vecinas mediante desmosomas, a fin de tener libertad para crecer sin ligaduras e invadir otros territorios.
  2. Activación del mecanismo de angiogénesis: Para asegurar la irrigación del tumor. 
  3. Adquisición de la condición de agresividad: A fin de abrirse camino en un mundo extremadamente organizado y disciplinado. Parece que la principal arma bioquímica que usan es un conjunto de proteasas diferentes, como ya se comentó antes, pero no la única; muchas células cancerosas son alcalinas, producen un ambiente alcalino a su alrededor, el cual es también muy agresivo. 
  4. Adquisición de la capacidad de liberarse e invadir (metástasis): Esto garantizará el escape para hacer incursiones de exploración buscando nuevos sitios para asentar nuevas colonias.
En el desarrollo normal del cáncer, las células empiezan a dividirse muy deprisa, y permanecen juntas al principio, formando un tumor, luego se hacen malignas (agresivas), y por último adquieren la propiedad de desplazarse produciendo metástasis en otras zonas; pero no todas las células del tumor primario sufren la misma suerte. En realidad, y con la teoría de la selección natural en la mano, cada paso nuevo en el progreso hacia la condición de célula maligna, cada logro nuevo implica una selección, pero pueden originarse varias ramas. Igual que con los pinzones de Darwin, pueden seleccionarse varias estirpes diferentes adaptadas para progresar en diferentes partes del cuerpo. Esta teoría explica igualmente por qué hay tanta diversidad dentro del mismo cáncer. En el camino hacia la condición de cancerosa, la evolución de las células tratará de aprovechar todos los medios que pueda tener a su disposición. Pero esto muchas veces puede ser casual, de manera que la secuencia de acontecimientos será irrepetible.

¿Cómo puede curarse el cáncer?

Lo primero que se propone en el trabajo es, por supuesto la prevención, evitando en lo posible el estrés celular, no sometiendo a nuestras células (voluntaria o involuntariamente) a la acción de agentes que lo provoquen, y que se haya comprobado científicamente que producen cáncer (como el tabaco; la acción directa del sol sobre la piel, los agentes químicos como el benceno, el hollín, etc.). También se aconseja llevar una dieta equilibrada, y muy rica en vitaminas.

Por otra parte, para cuando el cáncer ya se ha declarado, en el trabajo se propone una interesante vía de investigación: la terapia por selección natural. En cierto sentido, el cáncer se puede considerar como una enfermedad debida a una insuficiencia, incapacidad, o debilidad del sistema inmune; en la que ciertas células rebeldes han escapado a su control; por ejemplo, hoy sabemos que uno de los productos químicos presentes en el humo del tabaco es un agente mutagénico específico que inhabilita a las células inmunitarias para combatir la proliferación de células cancerosas. La idea, pues, sería desencadenar en el sistema inmune del enfermo un mecanismo que disparase de nuevo el procedimiento de la selección natural para combatir a las células insurrectas. Este fenómeno, aunque raro, ocurre en algunos casos en los que se da una regresión espontánea del cáncer pero, cuando esto no ocurre espontáneamente, ¿cómo podríamos ayudar a que se diese?

La idea consiste en tratar de provocar en las células defensoras del sistema inmune, un proceso de selección natural que las haga capaz de reconocer, atacar y matar a las células cancerosas.  En general, tanto las células cancerosas, como las células del sistema inmune, se cultivan bien in vitro, de manera que en la mayor parte de los casos sería posible extraer células cancerosas de un paciente, mantenerlas en cultivo, y ponerlas en contacto con las células K del sistema inmune, que son su enemigo natural; a fin de provocar una selección natural acelerada en éstas para que sean capaces de atacar específicamente a las células cancerosas. Una vez lograda esa selección, éstas pueden conseguirse en cantidad suficiente y ser inyectadas al enfermo. El efecto será sencillamente proporcionar refuerzos especializados sin problemas de rechazo. Es posible también, que las células K ya se hayan seleccionado y estén actuando, pero que no sean suficientes. En ese caso, se podrían extraer del cuerpo del paciente, seleccionarlas, hacerlas crecer in vitro para obtener una buena cantidad, y reinocularlas al paciente.

No se extiende mucho más sobre el asunto Enrique Meléndez-Hevia, pero la idea está ahí; y parece prometedora. Llevo un tiempo intentando ponerme en contacto con el profesor, para saber si se ha avanzado en esta línea de investigación desde que escribió este trabajo hace una década, pero me ha sido imposible. No logro contactarlo, y es una lástima, porque me gustaría mucho conocer su opinión personal sobre el trabajo que recientemente ha publicado el físico Jeremy England, y que va totalmente en la línea de lo que el profesor Enrique adelantó hace más de diez años, sobre la reducción del origen y desarrollo de la vida a la física subyacente: en este caso concreto, a la termodinámica, y la mecánica estadística.

Referencias:

La selección natural y la termodinámica en la evolución biológica: del origen de la vida al cáncer. Enrique Meléndez-Hevia (2001)

Statistical Physics of Adaptation. Nikolai Perunov, Robert Marsland, and Jeremy England (2014)

Web oficial del equipo de investigación liderado por Jeremy England

viernes, 2 de enero de 2015

Las matemáticas de la vida (II)


En anteriores entradas, comencé a explicar los papers de Jeremy England que tanto han llamado la atención de la comunidad científica en el mes de diciembre, y donde el autor intenta abordar la cuestión del origen y desarrollo de la vida, desde un punto de vista exclusivamente físico, reduciendo y superando las respuestas que se dan desde la biología.

Lo interesante del asunto, es que este estudio se basa en deducciones matemáticas formales, basadas en la física establecida. En concreto, se hace un uso intensivo de la termodinámica y de la mecánica estadística.

Sin embargo, y como suele ser normal, cuando se hacen este tipo de publicaciones, se suelen obviar gran parte de los pasos tomados para llegar de algunos puntos a otros. Se dan por supuestos ciertos conocimientos previos de física, y también se suponen conocidos las herramientas y métodos matemáticos utilizados.

Yo, personalmente, creo que el suponer estos conocimientos previos como dados, es un gran impedimento, que hacen que todos estos estudios no lleguen fácilmente a un público más amplio. Y, por otra parte, cuando posteriormente se pretende hacer una divulgación de algún estudio de este tipo, se toma al lector por tonto, y se evita la total inclusión de cualquier fórmula matemática; lo que hace que el divulgador de turno tenga que interpretar (más o menos subjetivamente) gran cantidad de datos. Mi opinión es que no se debería hacer ni una cosa ni otra: ni tomar al lector medio (consumidor de ciencia) por superdotado, ni tomarlo por estúpido. Y, en este sentido, pretendo acercar este estudio en concreto, a cualquiera que simplemente tenga estudios de bachillerato, y la voluntad para comprender de primera mano lo que dice, sin que nadie tenga que interpretarselo.

Así que voy a completar mi anterior entrada, donde ya comencé a intentar divulgar seriamente esta línea de investigación, con esta otra, donde voy a subir a continuación (de mi puño y letra), todo el desarrollo matemático completo, paso por paso. Voy a enlazar, también, a varios recursos externos, desde donde podréis profundizar en los conocimientos más críticos del proceso:

(Para ver las imágenes más detalladamente, pinchad en cada imagen, copiar su url, y abridla luego en otra pestaña del navegador. Desde ahí podréis hacer zoom.) 








(Para ver las imágenes más detalladamente, pinchad en cada imagen, copiar su url, y abridla luego en otra pestaña del navegador. Desde ahí podréis hacer zoom.) 

Las fórmulas fundamentales en las que se basa Jeremy, más tarde, para postular sobre el origen y desarrollo de la vida son las siguientes [las marcadas como (8) y (12) en mis apuntes]:

(8)

(12)

Ahora ya podéis ver de donde sale cada una de estas dos fórmulas, y no tendréis que tomarlas como un acto de fe ;). En una próxima entrada, por último, voy a profundizar en lo que estas dos fórmulas nos dicen, y en la propuesta que, a partir de ellas, hace el autor de esta investigación sobre el origen y el desarrollo de la vida.

Todo el desarrollo físico-matemático que han llevado a Jeremy a estas dos fórmulas han sido ampliamente revisadas y se toman como válidas. Ahora se está estudiando e intentando de corroborar experimentalmente su posterior análisis sobre el origen de la vida (la cual hace, como digo, a partir de este desarrollo fisico-matemático previo que sí se toma por válido ya en estos momentos).

Aquí tenéis todas las referencias necesarias para seguir este interesante asunto:
  1. http://www.englandlab.com/publications.html (web oficial del equipo de investigación. Aquí irán subiendo los avances que se produzcan en este asunto).
  2. Perunov, N., Marsland, R., and England, J. "Statistical Physics of Adaptation", (preprint), arxiv.org, 2014. (Este es el paper de diciembre que ha levantado tanta expectación).
  3. England, J. L.  "Statistical Physics of self-replication." J. Chem. Phys.139, 121923 (2013). (Este es un paper del 2013, donde el equipo comenzó a dar forma definida a toda la línea de investigación).
  4. https://www.youtube.com/watch?v=e91D5UAz-f4#t=1720 (Vídeo con una charla del propio Jeremy England donde explica la línea de investigación).
  5. http://en.wikipedia.org/wiki/Boltzmann%27s_constant
  6. http://en.wikipedia.org/wiki/Thermal_equilibrium
  7. http://en.wikipedia.org/wiki/Statistical_mechanics
  8. http://en.wikipedia.org/wiki/Boltzmann_distribution
  9. http://en.wikipedia.org/wiki/Partition_function_(statistical_mechanics)
  10. http://en.wikipedia.org/wiki/Conditional_probability#Example
  11. http://www.montereyinstitute.org/courses/DevelopmentalMath/TEXTGROUP-15-19_RESOURCE/U18_L4_T1_text_final_es.html
  12. http://en.wikipedia.org/wiki/Expected_value
  13. http://en.wiktionary.org/wiki/Shannon_entropy
  14. http://en.wikipedia.org/wiki/Cumulant
  15. http://quevidaesta2010.blogspot.com.es/2014/12/las-matematicas-de-la-vida.html
  16. C. W. Gardiner, Handbook of Stochastic Methods, 3rd ed. (Springer, 2003). 
  17. G. E. Crooks, Phys. Rev. E 60, 2721 (1999). [3] R. A. Blythe, Phys. Rev. Lett. 100, 010601 (2008). 
  18. A. Gomez-Marin, J. M. Parrondo, and C. Van den Broeck, Phys. Rev. E 78, 011107 (2008). 
  19. G. Verley, R. Chétrite, and D. Lacoste, Phys. Rev. Lett
  20. C. Jarzynski, Physical Review Letters 78, 2690 (1997).