viernes, 8 de diciembre de 2017

¡Más potencia!

«¡Es la guerra! ¡Traed madera! ¡Más madera!» 
(Los hermanos Marx)

Introducción.

El mundo de las ciencias de la computación están estos días de enhorabuena, un nievo hito histórico acaba de acontecer: hablamos por supuesto del casi milagroso desarrollo de Google DeepMind denominado AlphaZero, un modelo neuronal capaz de aprender de manera autónoma no supervisada (sin apoyo de datos etiquetados ofrecidos por el hombre) a jugar con capacidades sobrehumanas a varios juegos milenarios como el Go y el ajedrez (aquí podéis descargar el paper de este proyecto).

DeepMind acaba de demostrar así que la metodología que utilizaron para que un modelo neuronal aprendiera (con capacidades sobrehumanas) por sí misma sin apoyo de datos humanos el juego de Go, es generalizable a cualquier otro tipo de juego o situación. En el arriba comentado paper nos explican por ejemplo como en 4 horas (sí, sólo 4 horas), la red neuronal fue capaz de aprender a jugar al ajedrez (entre otros juegos) con una capacidad no sólo sobrehumana, sino superior a cualquier inteligencia artificial "clásica" creada por el hombre en estos juegos (con reglas de juego programadas y dictadas a mano con respaldo de una fuerza bruta computacional). Es decir, que la metodología que utilizaron hace unos meses en AlphaGo Zero ahora han demostrado que es fácilmente extensible a cualquier otra situación o juego (de ahí que al modelo mejorado ahora lo llamen AlphaZero a secas). De ahora en adelante ya sabemos que un modelo neuronal es capaz de aprender solo y sin supervisión humana alguna con sólo recibir de entrada el estado actual del juego y nada más (ya no hay que "explicar" ni programar a mano absolutamente nada para que una red neuronal pueda aprender y superar nuestras habilidades). Se puede decir que el ser humano ya sobra para conseguir que un modelo neuronal aprenda a ejecutar con éxito una gran variedad de situaciones.

Y por si esto no fuese suficiente para convencer al lector más escéptico, también hay que remarcar otro avance de Google realizado el mes pasado: AutoML (https://research.googleblog.com/2017/11/automl-for-large-scale-image.html). Se trata ni más ni menos que de un modelo neuronal capaz de generar (crear) por sí sólo otro modelo neuronal "hijo" orientado en la resolución de una tarea específica independiente. Y hay que remarcar dos cosas de AutoML: 1º) Es un modelo neuronal que es capaz de generar y crear de manera autónoma sin apoyo humano otro modelo neuronal, y 2º) El modelo neuronal "hijo" creado de esta manera autónoma es superior a cualquier modelo que haya sido capaz un ser humano de crear hasta la fecha a mano ajustando los parámetros de una red neuronal (al menos en la tarea de clasificar imágenes donde han comenzado a probar este prodigio). Google DeepMind también está estudiando esta aproximación en recientes publicaciones como en el trabajo "Population Based Training of Neural Networks", donde estudian un modo de mejorar la eficiencia de los desarrollos de machine learning eliminando la necesidad de que un ingeniero humano ajuste los parámetros de la red neuronal...y realmente consiguen resultados prometedores. De hecho superan el estado del arte en varias tareas gracias al simple hecho de borrar al hombre de la ecuación.

Todos estos casos (especialmente el de AlphaZero) suponen un innegable paso adelante hacia la consecución de una inteligencia artificial general, y demuestran además que la única limitación en este sentido ha sido (y será por un tiempo) la potencia de cálculo. Estos hitos históricos que venimos presenciando los últimos 5 años sólo han sido posible de hecho gracias al uso de enormes recursos de computación por parte de grandes compañías privadas. En cierto sentido los avances teóricos palidecen en comparación al avance que la ley de Moore nos ofrece en potencia computacional (Hardware).

Valga en este sentido comentar que Google DeepMind sólo ha podido alcanzar sus hitos más actuales gracias a las nuevas tarjetas gráficas dedicadas y especializadas al machine learning (las TPU). Tarjetas que son propiedad exclusiva de Google y que de momento nadie más puede adquirir en el mercado.

Un poco de humildad.

El factor que más peso tiene en aquellas personas que no creen que la inteligencia artificial general vaya a llegar (por no hablar de una consciencia artificial) es la falta de humildad. Pensar a priori y sin base empírica que nuestras capacidades humanas son diferentes o se basan en sustratos o principios no materiales, o materiales pero difícilmente replicables. Se trata de una evidente falacia que se puede rastrear como poco hasta tiempos de Descartes.

La ciencia ha demostrado que ningún sustrato no material da soporte a nuestra mente, y también desde Darwin que todo en el hombre; desde el dedo del pié hasta su cerebro, es producto de un gradual, acumulativo y lento proceso evolutivo. Ya no hay pues cabida para nada inmaterial ni tampoco para la aparición fisiológica o conductual de estructuras que no sean explicables por la mera evolución. Esto implica pues que nuestra mente y la consciencia deben ser productos materiales y evolucionados durante millones de años. En este sentido es de perogrullo concluir que es el cerebro y el sistema nervioso en general el responsable de toda nuestra conducta y subjetividad.

En este sentido me gustaría que vieseis conmigo a continuación esta breve sesión de neuroanatomía impartida por el profesor Leonard E. White (este vídeo forma parte de un completo curso que puedes seguir de manera gratuita en Coursera):



El sistema nervioso central es el encargado de procesar la información. Los nervios le llevan información desde los sentidos y también transmiten la salida del procesado a los músculos. Y este procesado de información de entrada y salida, junto con cierta retroalimentación interna de varias zonas y subredes neuronales, es todo lo necesario para explicar nuestra mente. No hay ni se requiere de ninguna res cogitans ni tampoco es admisible ningún agente o explicación que no quepa dentro de los límites evolutivos.

El algoritmo humano.

Uno de los fragmentos que más me han gustado del último libro de Yuval Noah Harari, "Homo Deus: Breve historia del mañana" ha sido el siguiente:


La conducta humana, toda ella; como bien indica Yuval Noah Harari, se reduce a complejos cálculos de probabilidades acontecidos en el sistema nervioso central. Un órgano evolucionado gradualmente durante millones de años. Todo en nosotros se reduce pues a la ejecución de intricados algoritmos ejecutados en el cerebro.

El poderío de la red neuronal biológica.

Pero, ¿cómo pudo la Naturaleza lograr semejante procesador de cálculos capaz de tener en cuenta tanta información externa y de manera simultánea? ¿Cómo es posible acaparar y filtrar tanta información y aún así ser capaz de generalizar y obtener patrones de entre todo ese caos sensorial? ¿Y cómo aplica con éxito luego esos necesarios cómputos probabilisticos capaces de lograr con éxito los fines evolutivos de supervivencia y reproducción? La respuesta son las redes neuronales biológicas.


La capacidad de cálculo que estas redes neuronales poseen son realmente asombrosas. Pueden aproximar funciones no-lineales y actuar de manera paralela con información llegada de muy diversas fuentes. El flujo de información eléctrica que recorren los billones de neuronas por entre el trillón de sinapsis en el cerebro del hombre suponen la explicación evidente de toda nuestra capacidad. No hay nada más a parte de este sustrato material evolutivo, tampoco hace falta introducir nada más en la ecuación. Las redes neuronales poseen el poder computacional necesario y suficiente para dar cuenta de nuestra conducta y subjetividad, y aunque aún nos quede mucho por aprender de este órgano, es de necios aprovechar este desconocimiento temporal para introducir postulados metafísicos, místicos o seudocientíficos (como eso de querer introducir a la mecánica cuántica como parte del fenómeno de la consciencia con calzador y sin evidencia ni soporte empírico alguno).

El poderío de la red neuronal artificial.

El poderío y la capacidad de cálculo no lineal de la red neuronal biológica es fácilmente replicable en un ordenador cualquiera. Es posible simular este comportamiento biológico, y es de hecho esta imitación la que está posibilitando TODOS y cada uno de los avances tecnológicos acontecidos en la última década en el terreno de la inteligencia artificial.



Si coges tu móvil y cuando le hablas es capaz de reconocer tu voz y transcribir lo que dices casi sin errores, debes saber que lo que tu móvil está haciendo es ejecutar una red neuronal artificial que simula el funcionamiento de parte de la red neuronal de nuestro propio cerebro encargado de esta tarea. Y esto mismo ocurre con los sistemas de traducción entre lenguas, con la voz sintética que nos habla, e incluso con las simpáticas aplicaciones que detectan nuestra cara en la cámara del móvil para pintarnos encima sombreros y otras cosas graciosas. Lo mismo que cuando nuestro coche es capaz de ayudarnos con los modernos sistemas de soporte que evitan que nos salgamos del carril en la carretera. En estos vehículos, una cámara recibe señales del asfalto, y una red neuronal artificial es la que decide si vamos bien o si nos vamos a salir del carril (corrigiendo en tal caso la trayectoria moviendo automáticamente el volante). Los ejemplos son ya en realidad innumerables.

La ley de Moore y la actual explosión de avances en inteligencia artificial.

Teóricamente hace ya varias décadas que se conoce el poder de la red neuronal artificial, pero hasta hace bien poco no se dispuso del Hardware necesario para dar soporte práctico a dicho potencial de simulación. Pero esto está cambiando gracias a la ley de Moore y al exponencial aumento de potencial de cálculo disponible cada año (la ley de Moore original se refería a la duplicación en el tiempo del número de transistores pero hoy en día muchos la entienden ya simplemente como la duplicación en la potencia disponible). Cada año el potencial de cálculo al alcance de los investigadores casi se duplica, y precisamente ahora estamos alcanzando el umbral que permite esta explotación práctica artificial del poder biológico oculto en las redes neuronales. Hoy en día por ejemplo, un dispositivo móvil puede poseer más capacidad de cómputo que algunos supercomputadores de hace 15 años.

Y es que, como ya dijimos al principio, el gigantesco avance en IA de estos últimos 5 años no se deben tanto a los avances teóricos sino a los avances en el hardware. Esto significa que el limitante no ha sido nunca la base teórica (bien establecida desde hace muchos años), sino la ineficacia de nuestras máquinas a la hora de poder simular con la fidelidad suficiente la base natural biológica que da forma a nuestras habilidades mentales.

Al mismo tiempo este hecho supone que los logros que conseguiremos en años venideros seguirán creciendo a cada vez mejor ritmo conforme la ley de Moore (entendida o reformulada como la duplicidad en la capacidad de cómputo disponible cada poco tiempo) siga mejorando exponencialmente nuestra potencia de cálculo. Las tarjetas TPU de segunda generación Google son el doble de potentes que las de primera generación (un avance que ha necesitado de menos de un año), y nada impide que en 5 años tengamos un hardware tan potente que haga palidecer a nuestros desarrollos actuales.

Conclusión.

Si Google DeepMind ha necesitado esperar a la aparición de las TPU de 2ª generación para lograr el gran hito que ha supuesto AlphaZero, nada parece indicar que el ritmo de logros importantes y transcendentales en el mundo de la inteligencia artificial no continúe su curso conforme nuevo y más avanzado hardware llegue a manos de los investigadores en las ciencias de la computación.

En última instancia, es perfectamente viable (e incluso probable), que conforme el poder de computación avance así ocurra con nuestra habilidad para simular e imitar nuestra propia red neuronal biológica hasta el punto de que finalmente el proceso acabe convergiendo en una inteligencia artificial general e incluso consciente (poseyendo nuestra misma subjetividad). Valga recalcar el hecho de que no existe ninguna evidencia física teórica o experimental capaz de negar formalmente la posibilidad de esta convergencia.

Bien parece que en el fondo el "Hard problem" de la consciencia se reduce simplemente a una limitación temporal de potencia. Así pues no desesperemos y estemos atento a que los avances tecnológicos nos sigan ofreciendo cada año el doble de potencia. De eso parece que se trata todo, de ¡mas madera!

jueves, 23 de noviembre de 2017

Replicando el desarrollo de Google DeepMind: AlphaGo Zero

Previous versions of AlphaGo initially trained on thousands of human amateur and professional games to learn how to play Go. AlphaGo Zero skips this step and learns to play simply by playing games against itself, starting from completely random play. In doing so, it quickly surpassed human level of play and defeated the previously published champion-defeating version of AlphaGo by 100 games to 0.
If similar techniques can be applied to other structured problems, such as protein folding, reducing energy consumption or searching for revolutionary new materials, the resulting breakthroughs have the potential to positively impact society. 
(Profesor David Silver)

Hace unos meses Google DeepMind hizo público uno de sus resultados más asombrosos: una versión del modelo neuronal que fue capaz de derrotar al campeón del mundo de Go, solo que esta vez no necesitaron hacer uso de ningún aprendizaje supervisado de juegos entre humanos (hablé en este mismo blog en esta otra entrada con más profundidad sobre el asunto).

El modelo era capaz de aprender a jugar cual tabula rasa a partir exclusivamente de su propia experiencia jugando contra sí mismo una y otra vez. Pues bien, siguiendo esta línea de pensamiento he realizado por mi cuenta dos versiones de estas ideas para demostrar su validez (utilizando la librería Keras para Python). En primer lugar realicé una versión con un modelo neuronal capaz de aprender a jugar por sí solo al juego Conecta 4. El resultado ha sido espectacular (abajo encontrarás más información). En pocas horas una red neuronal aleatoria fue capaz de alcanzar un nivel de juego similar al de cualquier programa de IA tradicional...¡sólo que yo no tuve que explicarle ni indicarle ninguna estrategia de juego! La red neuronal se ajustó gradualmente conforme jugaba ella sola hasta el punto de superar mi propia capacidad de juego en muy poco tiempo.

El código fuente lo puedes descargar desde aquí: https://github.com/Zeta36/connect4-alpha-zero También he realizado una versión de esta propuesta orientado al juego del ajedrez (https://github.com/Zeta36/chess-alpha-zero), aunque por motivos de falta de un Hardware lo suficientemente potente no he sido capaz de entrenar esta versión aún y no sé su capacidad real. Os dejo a continuación más información técnica sobre estos dos proyectos:

About

Connect4 reinforcement learning by AlphaGo Zero methods.
This project is based in two main resources:
  1. DeepMind's Oct19th publication: Mastering the Game of Go without Human Knowledge.
  2. The great Reversi development of the DeepMind ideas that @mokemokechicken did in his repo: https://github.com/mokemokechicken/reversi-alpha-zero

Environment

  • Python 3.6.3
  • tensorflow-gpu: 1.3.0
  • Keras: 2.0.8

Modules

Reinforcement Learning

This AlphaGo Zero implementation consists of three worker selfopt and eval.
  • self is Self-Play to generate training data by self-play using BestModel.
  • opt is Trainer to train model, and generate next-generation models.
  • eval is Evaluator to evaluate whether the next-generation model is better than BestModel. If better, replace BestModel.

Evaluation

For evaluation, you can play chess with the BestModel.
  • play_gui is Play Game vs BestModel using ASCII character encoding.

Data

  • data/model/model_best_*: BestModel.
  • data/model/next_generation/*: next-generation models.
  • data/play_data/play_*.json: generated training data.
  • logs/main.log: log file.
If you want to train the model from the beginning, delete the above directories.

How to use

Setup

install libraries

pip install -r requirements.txt
If you want use GPU,
pip install tensorflow-gpu

set environment variables

Create .env file and write this.
KERAS_BACKEND=tensorflow

Basic Usages

For training model, execute Self-PlayTrainer and Evaluator.

Self-Play

python src/connect4_zero/run.py self
When executed, Self-Play will start using BestModel. If the BestModel does not exist, new random model will be created and become BestModel.

options

  • --new: create new BestModel
  • --type mini: use mini config for testing, (see src/connect4_zero/configs/mini.py)

Trainer

python src/connect4_zero/run.py opt
When executed, Training will start. A base model will be loaded from latest saved next-generation model. If not existed, BestModel is used. Trained model will be saved every 2000 steps(mini-batch) after epoch.

options

  • --type mini: use mini config for testing, (see src/connect4_zero/configs/mini.py)
  • --total-step: specify total step(mini-batch) numbers. The total step affects learning rate of training.

Evaluator

python src/connect4_zero/run.py eval
When executed, Evaluation will start. It evaluates BestModel and the latest next-generation model by playing about 200 games. If next-generation model wins, it becomes BestModel.

options

  • --type mini: use mini config for testing, (see src/connect4_zero/configs/mini.py)

Play Game

python src/connect4_zero/run.py play_gui
When executed, ordinary chess board will be displayed in ASCII code and you can play against BestModel.

Tips and Memo

GPU Memory

Usually the lack of memory cause warnings, not error. If error happens, try to change per_process_gpu_memory_fraction in src/worker/{evaluate.py,optimize.py,self_play.py},
tf_util.set_session_config(per_process_gpu_memory_fraction=0.2)
Less batch_size will reduce memory usage of opt. Try to change TrainerConfig#batch_size in NormalConfig.

Model Performance

The following table is records of the best models.
best model generationwinning percentage to best modelTime Spent(hours)note
1-- 
2100%1
384,6%1
478,6%2This model is good enough to avoid naive losing movements
5100%1The NN learns to play always in the center when it moves first
6100%4The model now is able to win any online Connect4 game with classic AI I've found

domingo, 12 de noviembre de 2017

Introducción a la teoría cuántica de campos (QFT) (II)

"There are no real one-particle systems in nature, not even few-particle
systems. The existence of virtual pairs and of pair fluctuations shows that
the days of fixed particle numbers are over."
(Viki Weisskopf)

Ayer terminé de seguir el curso que el profesor Leonard Susskind impartió para la Universidad de Stanford hablando sobre una introducción a la teoría cuántica de campos (Quantum Field Theory - QFT). La lectura es bastante amena y fácil de entender (desde un punto de vista matemático), pero a pesar de esta sencillez el profesor es capaz de transmitir la base esencial de la que es actualmente la teoría física más precisa y avanzada de la que disponemos: el modelo estándar de partículas. Podéis acceder a estas 10 charlas desde YouTubehttps://www.youtube.com/watch?v=2eFvVzNF24g.

El curso completo es excepcional, pero el último de los vídeos es realmente extraordinario. El vídeo es el siguiente y os lo recomiendo con mucho énfasis:


Hace unos meses ya os intenté transmitir una introducción a la QFT en esta entrada, pero creo que me quedó demasiado formal y matemática. Con el anterior vídeo (con el curso completo en realidad) me gustaría que aquellos que no llegaron a entender del todo lo que quise transmitir en aquel momento, puedan comprender el asunto ahora de una manera más cualitativa e interpretativa.

Un símil sobre la propuesta que se esconde tras la QFT.

Para entender la propuesta de la física moderna de partículas creo que es interesante pensar en el siguiente símil que, aunque no es ni de lejos exacto, creo que puede valer para que nos hagamos una idea de lo que propone la teoría cuántica de campos:

Pensemos por un momento en la superficie de una piscina llena de agua. Pues bien, eso se puede entender como el equivalente de un campo en física: una representación formal mediante la cual a cada posición del espacio y el tiempo se le asigna una propiedad o valor. En el caso de la superficie de la piscina el valor de cada posición infinitesimal de la misma puede venir representado por ejemplo con la altura de la cresta del agua en cierto lugar (y momento).

La superficie del agua en toda la piscina conforma una figura ondulada con valles y crestas, y dicha apariencia puede ser matemáticamente formalizada por lo que se conoce como la función del campo: una manera de describir la situación actual de la superficie de toda la piscina de tal manera que es posible describir la altura de cualquier posición de la misma. Por ejemplo, podemos trabajar matemáticamente con esa función φ(x, t) y pedirle que nos diga que altura tiene el agua en la posición (x=5, y=4.3) en cierto momento t. La función retornará un valor con la altura, por ejemplo: 1 mm (lo de utilizar milímetros es una licencia que me tomo con fines de claridad argumental).

Continuemos con otra analogía de la que nos vamos a servir: el hecho de que esta altura de la onda en cada posición infinitesimal de la superficie de la piscina nos va a indicar cuántas partículas y con qué momento (energía) hay en esa posición x de la misma. En realidad la situación incluso cualitativamente es más complicada, y lo que nos va a interesar son dos parámetros de la onda en cierta posición: su altura y el modo en que vibra. La altura va a representar el número de partículas (a más altura más partículas habrá), mientras que el modo en que la onda se encuentra vibrando en ese lugar va a indicar la velocidad (momento o energía) de todas esas partículas.


Mira el ejemplo del gráfico de arriba y quédate con la parte azul. Imagina que observamos el agua en cierto punto y que existe allí una cresta de altura igual a 3 mm. Esto nos indica que allí hay 3 partículas. Luego miramos la frecuencia a la que vibra la onda en ese punto (por ejemplo: 2.0 hercios (Hz)) y eso nos indica la velocidad (el momento en realidad) de cada una de esas 3 partículas.

Y eso es todo. Cuando sólo hay partículas de un tipo y cuando no interaccionan unas con otras, esa superficie de la piscina y esa función φ(x, t) nos dan toda la información que podemos captar del mundo microscópico. Una piscina tranquila, casi sin "oleaje" ni ondulaciones en la superficie se corresponde con un espacio de vacío cuántico; donde no hay partículas aunque sí energía (la energía del vacío cuántico que se corresponde con la de un oscilador armónico simple en su estado fundamental). Donde no hay partículas por tanto tenemos aún así una minúscula cresta de agua fluctuando con la mínima energía.

Por otra parte, si en cierto lugar de la piscina perturbamos el sistema lanzando por ejemplo una piedra, provocaremos en ese punto grandes ondulaciones. Ese hecho se puede interpretar como que la energía que poseía la piedra ha inducido la creación de numerosas partículas que se desplazarán por toda la piscina vibrando a gran frecuencia. Y cuanta más energía posea la piedra (ya sea porque posea más masa o más momento), mayor será la agitación de la piscina: es decir; más partículas se crearán y más velocidad llevarán.

¡De hecho esto es precisamente lo que hacen en el acelerador de partículas del LHC en el CERN! Hacen colisionar partículas con una velocidad tan alta (cercana a la máxima velocidad de la luz) que la perturbación en los campos cuánticos es explosiva. Decenas de miles de partículas "nacen" tras la colisión y posterior desintegración de sólo 2 partículas iniciales (hadrones).



Diferentes tipos de piscina.

Hemos hablado sobre las crestas y los valles de una piscina de agua, y hemos dicho que eso se corresponde con el concepto de campo, pero en realidad se corresponde con el concepto de un campo. En el mundo físico real existen simultáneamente cientos de campos físicos. Puedes imaginar, por ejemplo; que nuestra piscina de agua se corresponde con el campo cuántico de los fotones. Pero hay un campo distinto para cada partícula existente. Así pues, debemos extender nuestra analogía y pensar en la existencia de muchos otros tipos de piscina.

Una piscina llena de aceite, por ejemplo; podría representar a los electrones. Una piscina llena de mercurio podría representar a los bosones W y Z, etc. Lo importante del asunto es comprender que cada campo responde de manera distinta a las perturbaciones porque cada campo posee unas cualidades físicas esenciales distintas. Es decir; que la piedra de antes que sobre la piscina de agua provocó alta perturbación, provocará una perturbación muy distinta sobre la piscina de mercurio.

Se conocen hoy día cientos de partículas fundamentales por lo que debemos hacernos a la idea de que existen cientos de tipos de piscinas "conviviendo" e interaccionando en cada punto infinitesimal del espacio. Así pues debemos pensar nuestra realidad como si estuviésemos sumergidos en una combinación (no mezclada) de fluidos que se "molestan" unos a otros produciendo cambios de oleajes que podemos interpretar como destrucción de partículas de cierto tipo de campo y apariciones de partículas de otro tipo de campo.

Para entender ésto imagina el siguiente caso: nuestra piscina contiene dos tipos de líquidos que no se pueden mezclar (agua y aceite, pongamos por caso). Toda la agua conformaría por ejemplo el campo cuántico de los fotones, y todo el aceite sería el campo cuántico de los electrones. Vayamos a la superficie. Si todo el líquido está carente de olas (no hay crestas ni valles), podemos aventurar que en la piscina no hay partículas (vacío cuántico). Imagina ahora que producimos una pequeña perturbación en el aceite en las posiciones x e y. Si la perturbación es lo suficientemente pequeña lograremos la creación y posterior desplazamiento de dos pequeñas crestas de aceite de altura 1mm (que hemos supuesto que corresponde con la creación de 1 sólo electrón en x y otro único electrón en y). Pues bien, conforme esas dos crestas independientes de aceite se desplazan, llegará el momento en que se puedan aproximar una a la otra. Cuando estén a cierta distancia d, comenzará a ser probable la ocurrencia de un curioso fenómeno de interacción entre el aceite y el agua. En concreto, es posible que en cierto momento la distancia d sea tal que permita un acoplamiento entre una cresta "virtual" de agua (un fotón "virtual") y las dos crestas de aceite (los dos electrones). Precisamente este acoplamiento haría las veces de repulsión entre las dos crestas de aceite puesto que podemos imaginar como si la cresta de agua "virtual" se interpusiera entre las dos crestas de aceite y las "empujara" hacia direcciones opuestas.

Pero hay que dejar muy claro que se trata de una cresta "virtual", puesto que su aparición supone una violación de la conservación de la energía: en el caso descrito una partícula de agua (un fotón) salió de la nada y se interpuso entre los electrones, y por lo tanto la duración en la existencia de dicho fotón tuvo que ser tan pequeña que la Naturaleza no lo "notó" (gracias al principio de incertidumbre de la mecánica cuántica).

Este caso de ejemplo que acabamos de comentar supone la base teórica de la QED (Quantum electrodynamics-electrodinámica cuántica), y describe como entiende la física de partículas del modelo estándar lo que antiguamente en mecánica clásica se entendía como la fuerza a distancia de repulsion de Coulomb entre partículas con carga.

El bosón de Higgs.

Si alguna vez te has preguntado qué es en realidad el tan cacareado bosón de Higgs, ahora lo puedes entender como un nuevo tipo de campo (otro tipo de contenido líquido en nuestra piscina). Y no tiene gran cosa de especial a parte de tratarse de un campo con la propiedad de poder acoplarse e interaccionar con casi todos los demás campos. De hecho, es esta cualidad tan especial la que produce que el resto de partículas masivas conocidas posean dicha masa. Es decir, que es por ejemplo la interacción del campo del electrón con el campo de Higgs lo que produce que el electrón posea masa (resistencia al movimiento). Puedes imaginar el proceso como que continuamente una cresta de aceite se ve afectada en cada paso por una cresta "virtual" de Higgs (muy importante lo de virtual), lo que le impide entonces al electrón el movimiento a la máxima velocidad de la luz c. Las diferentes masas de las partículas se explican así según sea la frecuencia o probabilidad con la que estas interacciones con el campo de Higgs se producen. Si el acoplamiento entre ambos campos es alto la masa será alta (porque ocurrirán muchos más eventos de interacción en el tiempo).

¿Y qué fue entonces lo que descubrió el LHC? ¡Pues descubrió una partícula real de Higgs! Y es que, aunque hemos dicho que existe un infinito campo "virtual" de bosones de Higgs pululando alrededor de cada partícula real (masiva), dada esta virtualidad no son observables por definición. El LHC fue capaz de invertir la suficiente energía de colisión como para sacar a un bosón de Higgs real de su campo (produciendo uno de esos pesados bosones al lograrse perturbar lo suficiente el "líquido" del campo de Higgs y crear una cresta a la altura de 1 mm que hemos venido utilizando como símil). Hasta la llegada del LHC sencillamente no disponíamos de la suficiente capacidad de choque como para alterar lo suficiente ese campo de Higgs que lo cubre todo. Lo mismo se supone que podría ser cierto para otras partículas que aún no hemos logrado detectar ni siquiera con los 14 TeV del LHC.

La dinámica de los campos.

Cuando uno mira la superficie de una piscina "alterada" es evidente que existe una dinámica en el movimiento ondulado del conjunto. Valles y crestas se mueven siguiendo un patrón muy concreto y en ocasiones predecible a primera vista. Los campos físicos de la realidad también siguen una dinámica muy concreta y de características similares a la del símil del agua con la que venimos trabajando. En concreto, los diferentes campos poseen una dinámica que favorece aquellos estados de mínima acción.

Imagina la superficie de la piscina en cierto tiempo t1 (como si echaras una foto a la misma). La pregunta que nos podemos hacer es: de entre todos los posibles estados finales que puede presentar la piscina transcurrido cierto intervalo de tiempo (t2-t1), ¿cuál será el estado real que seguirá el sistema? Es decir, si vamos sacando fotos de la superficie del agua por ejemplo cada segundo, ¿cómo determinar el aspecto que presentará el agua en cada fotograma?

La respuesta viene del hecho de que la naturaleza es económica en todas sus acciones. La dinámica del campo será aquella que minimice la acción invertida; es decir, será aquella que mantenga estacionaria la diferencia entre la energía cinética y la potencial de entre el conjunto del sistema (a esa diferencia de energías se la denomina lagrangiano L = T -V). Así pues, si queremos prever el aspecto del campo cada cierto intervalo de tiempo, sólo tenemos que seleccionar de entre todas las trayectorias posibles aquellas que minimizan la variación de la acción.

Esa respuesta es sin embargo válida en mecánica clásica pero no en mecánica cuántica y mucho menos en la teoría cuántica de campos. De todas formas al entrar en juego grandes números de partículas la respuesta es no obstante similar: el aspecto del campo cada intervalo de tiempo será en principio imprevisible (debido a los postulados de la mecánica cuántica), pero la probabilidad de cada estado final posible irá relacionado directamente con lo cercano que dicho sistema se encuentre del estado de mínima acción del que hablamos antes. Cuanto más se asemeje cierto estado final al estado de mínima acción, más probable será encontrar al sistema microscópico en ese estado. Aunque como decimos de todas formas se pierde el determinismo en nuestra capacidad de observación.

Acoplamiento entre campos.

Ya hemos visto que el mundo fenoménico se encuentra constituido por cientos de campos que comparten (aunque no se mezclan) el espacio-tiempo. El símil es el de una piscina llena de cientos de líquidos insolubles. Todos ellos independientes o libres y poseyendo unas cualidades infinitesimales particulares (masa, carga, etc.). Pero si eso fuese todo, el mundo sería muy aburrido e inerte. No ocurriría gran cosa en realidad. No obstante, resulta que todos esos líquidos como hemos comentado anteriormente son capaces de interaccionar entre ellos cuando se dan las circunstancias adecuadas. En nuestra alegoría existe la probabilidad de que una gota de cierto líquido se transforme espontáneamente en una o varias gotas infinitesimales de otro líquido (aparecen crestas en un campo y quedan planos otros). Esta transformación supone en realidad la creación y aniquilación de partículas de distintos tipos, pero a nivel más fundamental sabemos que lo que ocurre es que una vibración de cierto tipo de líquido se convierte en una vibración de otro tipo de líquido, o se reparte en varias vibraciones (de menor energía) en distintos tipos de líquidos mientras que la vibración en el campo o fuente original desaparece y queda plana.

Imagina el caso de que la cresta de una onda de agua en nuestra piscina choca con la cresta de una onda de aceite y como resultado ambas crestas desaparecen al mismo tiempo que aparecen varias crestas de mercurio que se mueven en direcciones opuestas (por poner un ejemplo).

El caso es que estas apariciones y desapariciones de crestas en los campos suponen la aparición y desaparición de partículas del tipo de cada campo, y la única regla que la Naturaleza necesita respectar es la conservación en el estado inicial y final (sin importar los estados intermedios) de las tradicionales cantidades fundamentales denominadas masa, momento lineal, momento angular, energía, carga, color, número leptónico, etc. Es decir, que son las leyes de conservación y el principio de mínima acción las únicas herramientas de la que se vale el mundo natural para guiar y dirigir el fenómeno. Todo lo que en cierto estado sea viable que pase (al respetarse las leyes de conservación) puede pasar. Y dado que todo puede ocurrir, el Universo necesita de alguna guía que le permita decidir y dictaminar qué es lo que le "gusta" o "desea" que pase. Para eso se basa en el principio de mínima acción, y para el cálculo de dicha acción hace uso del ya mencionado lagrangiano L. Por último, ese lagrangiano viene determinado por una función de campo φ(x, t) (y su derivada espacio-temporal) para cada uno de los cientos de campos. De manera que el lagrangiano general está compuesto por cientos de términos dependientes de cientos de funciones de campo φ(x, t), Ψ(x, t), Φ(x, t), etc. Finalmente, aparte de los términos en L dependientes exclusivamente de las funciones de campo y sus derivadas, existen términos interrelacionados entre campos. Esos términos son de la forma: λ[Φ(x,t)Φ(x,t)Ψ(x,t)].

Son precisamente estos términos que mezclan funciones de varios campos los que son capaces de hacer desaparecer una cresta de onda en cierto campo y hacer aparecer dos crestas en campos distintos. En la fórmula anterior por ejemplo tenemos la posibilidad de que una cresta en Ψ desaparezca (acabe en un valle plano) y por contra aparezcan dos nuevas crestas de ola en Φ (siempre que se mantengan las leyes de conservación, puesto que en caso contrario la aportación al lagrangiano de esa combinación sería de 0). Mencionar por último que la probabilidad de que tal evento de creación y aniquilación se produzca viene determinado por la constante de acoplamiento λ

En resumen se puede entender que la dinámica del sistema la dictamina en último término un lagrangiano L compuesto por una grandísima cantidad de términos aditivos cada uno acompañado de su constante de acoplamiento. Gráficamente esta suma infinitesimal se representa por los famosos diagramas de Feynman, cada uno de los cuales representa uno de estos infinitos términos y su probabilidad. Finalmente, cuando observamos, la Naturaleza selecciona (colapsa a) un estado final de entre todos los posibles siguiendo la señalada distribución de probabilidad.



El símil en 3 dimensiones.

Si queremos acercar más el símil de la piscina al mundo real podemos imaginarnos no ya la superficie del agua, sino inmersos en el interior de la piscina. Y podemos además utilizar la analogía de corrientes en lugar de hablar de crestas y valles de olas. En cierto sentido realmente se puede decir que vivimos sumergidos en un inmenso mar de mares...y el cálculo que realiza el Universo en cada instante para determinar qué debe pasar en cada punto infinitesimal del Universo viene descrito por un complejo lagrangiano L muy similar al siguiente:

¿Qué probabilidad hay de pasar de un estado inicial |i>  a un estado final |f>?

Para poner en perspectiva todo lo dicho, tomar por ejemplo un periodo de tiempo determinado por t1 y t2, suma la aportación de cada una de las infinitas trayectorias (con creaciones y aniquilaciones de todo tipo) que el lagrangiano anterior permite en este intervalo de tiempo, premultiplica por el estado final  y multiplica por el estado inicial. Finalmente eleva este resultado al cuadrado y ya tienes la probabilidad de observar el estado final |f> partiendo de |i>. Esta es precisamente la máxima capacidad de previsión que permite el modelo estándar de partículas. Se acabo aquello de calcular observables con certezas puesto que ahora sabemos que debemos limitarnos a calcular distribuciones de probabilidad. Y cabe recordar que esta limitación no es algún tipo de incapacidad humana, sino que es causa del modo en que funciona el mundo en esencia: finalmente "Dios" sí juega a los dados, y lo hace incesantemente en cada momento y en cada lugar infinitesimal. Así pues no es ya sólo que vivamos en un mar de mares, es que vivimos en un gigantesco mar de probabilidades.

domingo, 5 de noviembre de 2017

A vueltas con la detección de la existencia de una inteligencia con consciencia en nuestro Universo

Os dejo a continuación un texto colaborativo escrito por mi buen amigo José Carlos Gil Jara. Se trata a grandes rasgos de un interesante contraargumento a mi último artículo escrito en este mismo blog.
--------------------------------------------------------------------------------------------

“Cuando se elimina lo imposible, por muy improbable que pueda parecer lo posible, puede ser lo factible.”

Con esta cita adaptada de Sir Arthur Conan Doyle por boca de su célebre Sherlock Holmes, me dispongo a recoger el guante que nos lanzaba Samu en su último post y así tratar de responder, desde otro punto de vista, a la pregunta que encabezaba el mismo: ¿estamos solos en el Universo?

Ciertamente la improbabilidad en el origen y la existencia de la consciencia/inteligencia es muy alta, pero no imposible. Y aunque así se dedujera de alguna de esas hipótesis estadísticas, no es menos cierto que podría darse el caso de que estuvieran aquí al lado, pero que no estén capacitados aún para transmitir señales en el espectro electromagnético y/o lo hagan de una forma que nosotros no comprendemos; bien porque lo hagan con alguna tecnología que desconocemos, bien porque esas señales no sigan patrones que nosotros identificamos como señales inteligentes conscientes.

En definitiva, la lotería puede tocar a un número y al siguiente en dos sorteos consecutivos. Es improbable que te toque dos veces seguidas con dos números seguidos, pero se trata del mismo rango de improbablildad que con otros dos números cualesquiera.

Sin duda se trata en el fondo de un tema estadístico (por ahora), pero hay que notar que se viene atacando por dos lados opuestos a la llamada paradoja de Fermi. Por una lado a partir de la ecuación de Drake y las modificaciones a la misma realizadas por varios investigadores, como Sara Seager y Luis Dévora. La otra versión viene a partir de los resultados del SETI y lo que apunta Max Tegmark en su libro “Life 3.0: Being Human in the Age of Artificial Intelligence” al respecto. Dos estadísticas contrapuestas. El bueno de Max concluye que con los órdenes de magnitud deducidos a partir del alcance que detecta SETI, y tras su fracaso hasta el momento en su objetivo, parece sesgar la balanza en favor de que la inteligencia en el Universo es extremadamente rara, y/o tan dispersa en el espacio y el tiempo, que es muy improbable detectar cualquier emisión realizada por éstas. Tan rara que bien podría ser nuestro caso, el de los humanos, un hecho aislado (o como poco parte de un exclusivo y selecto grupo de casos aislados aquí y allá). Singularidades conscientes que, con tan pocos especímenes disponibles no sería raro que en algún momento una serie de cataclismos naturales acaben borrando del Universo cualquier rastro de conciencia inteligente consciente de sí misma.


En resumen, partiendo de esas premisas y dejando a parte nueva física y señales desconocidas, se afirma que la vida inteligente y consciente es muy rara y/o muy dispersa basándonos exclusivamente en lo que sabemos de física y tecnología. Tan rara que, posiblemente, no exista nada ni nadie con parecida capacidad intelectual a la nuestra en el resto de la Vía Láctea. Esto dejaría solo un rango de 5 órdenes de magnitud donde buscar (hasta el borde del Universo visible); pero siendo  ese rango tan pequeño en comparación con los 21 órdenes de magnitud anteriores, la esperanza matemática de que haya mucha vida inteligente ahí fuera sería muy poca. Como ven el "fracaso" de SETI es la premisa fundamental que toma Max Tegmark, pero ya sabemos que los errores suelen estar en las premisas y no en los desarrollos posteriores.

Y ahí es donde el bueno de Max tiende a hacer hipótesis, con este tipo de dudosas premisas (como ocurre con su "Universo Matemático" con postulados también poco justificados y/o sin sentido físico, inclusive).

Abundando y volviendo a la posible detección de emisiones por parte de una civilización extraterrestre, hay que tener en cuenta que muchas zonas nos siguen siendo opacas en parte del espectro electromagnético. Si esas civilizaciones no emiten en todas las longitudes de onda entonces puede que en las que emitan no podamos detectarlas al estar en esas zonas de sombra, ¡y que podrían ser muchísimas! Es decir, el argumento-premisa de que SETI no ha detectado nada y que, por lo tanto en una radio de 10^21 no hay nadie ni nada que esté emitiendo en el espectro electromagnético es pretencioso, cuando menos, porque obvia muchas posibilidades que pueden ser perfectamente factibles. A parte de que haya civilizaciones menos desarrolladas que no emitan nada (como nos sucedía a nosotros hace un par de siglos más o menos).

Desde luego lo más difícil es que dos civilizaciones en un grado de desarrollo suficiente como para emitir coincidan en el tiempo. Pero ya sabemos que el tiempo es relativo, o al menos así lo experimentamos desde un sistema relativo, y puede que ya no estén, aunque sus emisiones sí continúen vagando por el Universo. Y quizá puede que las detectemos, si es que no están en una zona opaca (entre otras muchas dificultades): sería como encontrar una aguja en un pajar, pero si están en una zona detectable, puede que algún día las encontremos y/o nos encuentren a nosotros.

Es la misma razón por la que no vemos las estrellas en el centro de nuestra galaxia en luz visible pero sí las vemos en longitudes de onda más largas (infrarroja por ejemplo). Igualmente no podríamos detectar a una civilización que allí estuviera y que emitiera solo en luz visible, ya que nos serían opacas esas emisiones debido al gas formado por partículas neutrales y el polvo. Algo similar a lo que sucedía en los llamados “años oscuros” de la Historia de nuestro Universo, que se estima se extendió durante sus primeros 500 millones de años de media.


Un ejemplo ilustrado de lo que comento a este respecto es el siguiente:



A la izquierda tenemos los famosos y bellos “Pilares del Universo” en la parte del espectro de luz visible. A la derecha en el infrarrojo. En el primero no podemos ver las estrellas porque su luz visible está bloqueada por las partículas neutrales y el polvo de esa espectacular formación. Lo mismo sucedería con una emisión en la zona de luz visible que se produjera en alguno de los planetas que orbitan alrededor de esas estrellas. SETI no detectaría nada y pensaríamos que allí no hay nadie si seguimos a pies juntitas la premisa de Max. Pero puede que sí haya emisiones y no las veamos por el mismo motivo que no vemos las estrellas.

Se podría argumentar que una civilización con capacidad para emitir en el espectro de luz visible también lo haría en el infrarrojo. Podría ser así, pero también podría ser que no perfectamente. De hecho nosotros no emitíamos en infrarrojo hasta hace bien poco. Un poco antes sí lo hacíamos en el visible. Y cuando digo bien poco, es tan poco que es un intervalo de tiempo insignificante a escalas cosmológicas. De hecho se podría despreciar por ser infinitesimal. Pero ahí estamos y sin embargo, probablemente no nos detectarían tampoco.

Así que puede que la inteligencia con consciencia sea muy rara y/o dispersa en el espacio y el tiempo, pero que no las detectemos con SETI no es una premisa ni argumento válido para afirmarlo. Hay muchos más vericuetos en este, nuestro Universo, que todavía nos son opacos. Tan opacos que pueden estar en la “zona oscura” de nuestro Universo. Imaginen una civilización que emite en el espectro no electromagnético, por ejemplo en lo que llamamos el “Universo Oscuro”. Sí, esa parte que desconocemos y calificamos como materia y energía oscura. O, simplemente, emiten en una zona del espectro electromagnético que nos es opaca por alguna razón. O que lo hacen con ondas gravitacionales exclusivamente. O de una forma que para nosotros no nos parece ni inteligente ni consciente. Hay tantas “O” por estudiar antes de descartar que esto se pone tan erótico que podría titularse: “Historia de O”.


Retorciendo más el asunto y poniéndonos en plan porno intelectual, quizá su percepción del espacio y el tiempo influya en su comunicación de forma tan decisiva que nosotros no entendamos que ahí hay una civilización inteligente y consciente. Incluso nuestro concepto de inteligencia y consciencia no tiene porque ser universal (de hecho no lo es). Por lo tanto solo estaríamos buscando especies que cumplan nuestros protocolos de inteligencia y consciencia, lo cual no quiere decir que existan otras con otros diferentes.

Al final puede que la gran barrera para detectar otra inteligencia consciente sea la propia concepción de qué es una inteligencia consciente y con conciencia de sí misma para nosotros, unos humildes seres locales en un rincón de una galaxia de entre centenares de miles de millones de esta parte observable de nuestro Universo. Un problema conceptual, a parte de ser un problema de comunicación, que también lo sería, ¡y muy grande! Quizá tan tan grande que nos impida considerar una potencial detección de una emisión extraterrestre como una comunicación inteligente. Puede ser algo insuperable. Tanto como las siguientes cuestiones:

¿Qué es la inteligencia y qué es la conciencia?

Preguntas muy difíciles de contestar de forma universal. ¡Ya lo son desde la propia concepción humana local! Un prisma que deforma eso que llamamos realidad de forma tan aberrante que solo sabemos que no sabemos nada y que existimos porque somos una especie pensante. Al final Sócrates y Descartes al rescate.

Sin embargo, si nos hacemos estas preguntas de la forma adecuada ya tenemos media respuesta,como decía Albert Einstein. Así que formulémoslas en clave del teneismo existencial:

¿Qué propiedades debe tener la inteligencia? ¿Y la consciencia?

Quizá ahora sea más fácil abordar esas cuestiones cuando sólo tenemos que buscar propiedades. Lo complicado es encontrar aquellas que sean universales. Y para ello debemos deshacernos de nuestras intuiciones, todas ellas locales. Eso es tanto como decir que nos deshagamos de nuestra condición humana y pasemos de observadores materiales a metaobsevadores intelectuales. Incluso debemos alejarnos tanto de nuestro ordinario sistema relativo como para arribar a los conspicuos y selectos sistemas universales. Desde ahí es de donde debemos metaobsevar, evadiéndonos de todo sesgo local.

Termino con Descartes nuevamente y con énfasis mío añadido:

Nuestros sentidos nos engañan. ¡Nuestras observaciones también!

(Texto íntegramente escrito por José Carlos Gil Jara)