viernes, 29 de diciembre de 2017

Creando un detector de setas para el móvil (utilizando el framework de machine learning KerasJS)


About

I explain how to export weights from a Keras model and import those weights in Keras.js, a JavaScript framework for running pre-trained neural networks in the browser. I show you later how to include the final result into a Phonegap Cordova mobile application.

Introduction

We are going to create a mushroom detector application for our mobiles. For this task we need to use a machine learning approximation, and as a good approximation we'll use the KerasJS framework.

First Step: Build an image recognition system for several mushroom families.

  • We need to begin training a Keras model in Python. For this purpose we'll use a transfer learning/fine tuning process over a pre-trained InceptionV3 model. The pipeline will be:
  1. Transfer learning: take a ConvNet that has been pre-trained on ImageNet, remove the last fully-connected layer, then treat the rest of the ConvNet as a feature extractor for the new dataset. Once you extract the features for all images, train a classifier for the new dataset.
  2. Fine-tuning: replace and retrain the classifier on top of the ConvNet, and also fine-tune the weights of the pre-trained network via backpropagation.
  • But first we need the database for the customizable mushroom categories. We have to find a big labeled database with thousands of images of each mushroom family we want to detect. This is not an easy issue, so we can trick a bit by searching and downloading Google Images/Image Links:
We can use this Python script in order to download images from Google base in a set if query strings:
google-images-download.py
This script will download 200 images for each of the specified mushroom families:
search_keyword = [
            'Paxinus involutus',
            'sarcosphaera',
            'Inonatus tamaricis',
   ...
   ...
   ];
After this process end we'll have a folder with 200 images named with the mushroom family. We have to cut this folders and move them to a new 'train_dir' folder. We need also create a 'val_dir' folder. In 'val_dir' folder we will have a copy of all downloaded mushroom family folders but just with some images for the validation process (this images cannot be anymore in the 'train_dir' folder).
Now we can start the fine tuning process using the Python Keras script:
fine-tune.py.py
This script will train the mushroom detection model and finally will create as output some weights files we'll use in the next step:
model_mushrooms.json
model_mushrooms_metadata.json
model_mushrooms_weights.buf
We can use the script: predict.py to check the accuracy of the training process.

Second Step: Running the Neural Network in the Browser

We will now create a tiny JavaScript application that loads the previously saved model and weights. Create frontent code and distribution folders:
mkdir -p frontend/dist
You’ll want to copy the extracted model data files into the frontend/dist directory:
cp model_mushrooms.json frontend/dist/
cp model_mushrooms_metadata.json frontend/dist/
cp model_mushrooms_weights.buf frontend/dist/
The Webpack Setup:
We will write the code in ES6 and prepare it for the browser using the webpack JavaScript code and asset bundler. So, install webpack and the webpack development server via npm by running
npm install webpack -g
npm install webpack-dev-server -g
You will also want to start a node project and install the required packages
npm init
npm install --save keras-js url-loader
  • The HTML:
I will use a very basic HTML file placed directly in the 'frontend/dist/index.html' distribution directory, which is generally not a good idea but works for this demonstration.
  • The JavaScript:
The actual model loading code will live inside 'frontend/entry.js'
  • With the sources in place, compile the bundle with:
cd frontend
webpack
To view the app, run:
webpack-dev-server
and open the indicated address (likely http://localhost:8080) in a web browser.
  • Testing the web:
Just type in the file input the name of an image file located in the folder 'frontend/dist/' and click the 'Predict' button. After some seconds you will have as output the prediction of the model with the top 3 confidence probabilities.


Third Step: Running the Neural Network in a Phonegap Cordova application.

  • This step is so simple as creating a new Phonegap project, and copying the former folders into the 'www' folder. Then we can just use a controller to redirect to a page containing our 'frontend/dist/index.html'.






lunes, 25 de diciembre de 2017

Implicaciones del límite de la velocidad de la luz


Out, out, brief candle!
Life's but a walking shadow, a poor player
That struts and frets his hour upon the stage
And then is heard no more: it is a tale
Told by an idiot, full of sound and fury,
Signifying nothing. (Macbeth. Act 5, scene 5)


Estos días estoy siguiendo el curso de cosmología que el profesor Leonard Susskind de la Universidad Stanford publicó de manera gratuita en internet:


Hay mil y una cosas que llaman la atención de estas clases que son amenas y fáciles de entender física y matemáticamente. Sin embargo hay un aspecto que se menciona y que ya me llamó la atención hace tiempo cuando leía un libro de divulgación, creo que de Nick Bostrom: la finitud en la velocidad máxima que puede alcanzar un objeto en relación a otro (entiéndase la velocidad de la luz en el vacío c).

La cuestión es hoy día sabemos que el tejido espacial se expande debido a la energía oscura de manera exponencial al mismo tiempo que sabemos que la velocidad máxima a la que puede moverse un objeto con respecto a otro está constantemente fijada en ~300.000 Km/s. Eso implica que más pronto que tarde (hablando a escalas de tiempo cósmicas), cada galaxia del Universo quedará completamente aislada del resto. En estos momentos, de hecho, ya existe una cantidad enorme de objetos celestes que han escapado por completo de nuestra capacidad particular presente y futura de observación empírica.

Si tomando por ejemplo nuestra posición relativa en el espacio como marco de referencia, existe en la práctica un horizonte de sucesos (muy similar al de un agujero negro) que determina lo que es o no es observable en modo alguno (sin importar la tecnología o el experimento que se idee), y que además va creciendo cada segundo que transcurre. Este horizonte es como un gran halo de oscuridad que va creciendo alrededor de nuestra galaxia, la Vía Láctea; y de nuestra vecina Andrómeda. Algún día futuro estas dos galaxias se "fusionarán" tras varias colisiones y sólo quedará para cualquier ser sintiente contemporáneo el conjunto de estrellas que reste del proceso...¡y nada más!

Estos hipotéticos futuros seres conscientes mirarán con ahínco usando sus enormes telescopios, pero la física subyacente limitará sus observaciones impidiéndoles estudiar experimentalmente nada que vaya más allá de ese cosmos "local". El resto del Universo que ahora se nos aparece como casi infinito habrá desaparecido tras un inescrutable linde de oscuridad, y lo máximo que podrán hacer es especular con hipótesis que jamás podrán contrastar. El rastro del fondo cósmico de microondas también se habrá desvanecido, e incluso la idea de un Big Bang será una "fantasía" que algunos cosmólogos (o filósofos) de la época tendrán pero que no podrán evidenciar de ninguna manera.

El mundo de estas criaturas parecerá así como algo estático, algo inmutable salido de la nada. No obstante a pesar de ésto todavía podrán evidenciar que su "cosmos" se muere. Porque es evidente que sólo verán y aceptarán su galaxia como la única estructura real del mundo (sin sospechar o poder evidenciar que en realidad hay mucho más), pero además constatarán que las estrellas de su mundo se mueren conforme consumen su combustible nuclear. Verán rastros aquí y allá de agujeros negros y de estrellas gigantes rojas; y dado que serán capaces de hallar (a pesar de su soledad cósmica) teorías físicas de partículas y termodinámicas tan exactas como las nuestras, podrán deducir sin problemas que el destino de su realidad completa es la de desaparecer en la nada.

Pero debemos dejar claro que este destino no depende del lugar de referencia seleccionado. Esto mismo le ocurrirá al resto de galaxias que pueblan hoy día el Universo. Conforme pase el tiempo, la expansión acelerada del espacio y la finitud de la velocidad máxima alcanzable por el fenómeno aseguran que todas y cada una de la estructuras galácticas actuales acabarán en esta especie de burbuja de soledad experimental. Así pues la historia de cualquier ente inteligente futuro, se encuentre en la galaxia en que se encuentre, estará capado empíricamente bajo este velo de maya (en este sentido nosotros somos afortunados de vivir en la temprana época universal en la que nos encontramos). No obstante, como ya mencionamos, todos estos seres del lejano futuro podrán descubrir de todas maneras que su mundo (térmicamente) se muere.

Así pues llegará un momento en que la rica realidad fenoménica de la que ahora disfrutamos se habrá reducido a un conjunto de cientos de millones de burbujas desconectadas entre sí, cada una de las cuales irá agotando su potencial energético local conforme el combustible de sus estrellas se agote. La finitud de la mayor velocidad alcanzable impedirá al mismo tiempo que ningún viajero (ni ninguna otra cosa en general) pueda literalmente pasar de una burbuja a otra, y la segunda ley de la termodinámica se encargará de acabar finalmente una por una con todas estas islas flotantes.

Llegado el momento, ni siquiera se podrá ya hablar de millones de burbujas o pompas galácticas, sino de moribundos islotes inertes. Y es que el hecho de que la aceleración exponencial del Universo vaya a desconectar totalmente al fenómeno supone que el cosmos finalmente llegará a constituir no ya un gran sistema con millones de subsistemas interconectados y abiertos como lo es actualmente, sino un sistema con millones de subsistemas aislados y cerrados (desconectados por completo), y eso supone, dada las leyes termodinámicas, una condena ineludible a terminar por fuerza en un estado de máximo equilibrio térmico (inerte).

Desde el momento en que se forman estos subsistemas aislados donde ninguna nueva energía libre entra o sale, el desenlace está escrito y es fácilmente reproducible en cualquier laboratorio actual en la Tierra. Las leyes termodinámicas son muy claras en estos casos: el equilibrio térmico siempre llega y no hay manera física de evitarlo.

Y no sueñen los optimistas con que alguna civilización super-avanzada será capaz de evitar el colapso térmico de su recluido y solitario cosmos local, porque eso sería tanto como lograr violar la segunda ley de la termodinámica. Yo personalmente no puedo imaginar que ningún ser, por muy avanzado tecnológicamente que sea vaya a lograr nunca actuar cual "Dios" alterando las leyes naturales subyacentes de este modo.

Pero es más aún; incluso aunque el lector optimista especule con agujeros de gusano y viajes a través del tejido espacio-temporal, el resultado no sería finalmente (y con mucha suerte) más que el de poder viajar rodando de isla moribunda en isla moribunda. Sin embargo el destino de todas estas ínsulas es el mismo, ya que todas están condenadas termodinámicamente. Finalmente incluso ese hipotético y fantástico viajero interesteral no tendrá lugar por donde vagar y perecerá junto con todo lo demás.

Conclusión.

Parece ser un hecho físico insoslayable que la futura muerte térmica del Universo está garantizada (por muy avanzada que sea cualquier civilización futura) si se cumplen estos tres hechos de bastante ortodoxia actualmente en la comunidad científica:

1º) La velocidad de la luz c constituye el valor máximo de cambio relativo (constante e inmutable) en el movimiento de cualquier objeto físico.

2º) Las leyes termodinámicas determinan siempre para sistemas cerrados y aislados acabar en un estado de absoluto equilibrio térmico (por muy inteligente que sea el ser, ente o aparato que pongamos dentro: recordemos que ni siquiera el imaginario demonio de Laplace puede evitar realmente ésto). Este completo equilibrio térmico supone además la "muerte" forzosa del sistema en sí, que aparecerá inerte y sin capacidad potencial para lograr ningún nuevo movimiento organizado. La energía libre ha desaparecido por completo y lo único que resta es un sistema con toda su energía degradada al máximo.

3º) Las observaciones astronómicas y las simulaciones por ordenador junto con toda nuestra compresión física teórica actual indican claramente que el tejido espacial del Universo está en estos momentos creciendo exponencialmente; lo cual supone la aparición de cada vez más energía oscura lo que acelera a su vez más y más esta propia expansión. Es decir, que hace ya tiempo que nos encontramos en una era cosmológica donde es la densidad de energía oscura la que domina el factor de escala a(t) el cual sigue una progresión exponencial (desde hace ya muchos millones de años). Esto supone que cada vez más espacio separa las estructuras cósmicas (imagina las galaxias pintadas en la superficie de un globo que se infla cada vez más rápido) hasta el punto en que "pronto" la máxima velocidad c no será suficiente para "escapar" de una de estas galaxias para ir a parar a la vecina (de manera similar a como nada que entre en el horizonte de sucesos de un agujero negro será jamás capaz de salir fuera dado este mismo límite de c). Otra forma de visualizar este hecho es como si la velocidad de "escape" de la galaxia fuese inalcanzable (ningún proyectil podría por ejemplo escapar de la Tierra si no fuese posible alcanzar la velocidad de escape de la misma).

Hoy por hoy no hay nadie que se atreva a negar estos tres postulados previos (y eso a pesar de la controversia sobre qué es en sí esta energía oscura), lo cual nos asegura con una alta probabilidad que lo dicho anteriormente sobre la historia futura del Universo llegará a ocurrir de tal manera.

El papel de la inteligencia en este proceso de "muerte" térmica.

Se podría pensar que la inteligencia tiene un papel de mero espectador ante este fatal destino cósmico, pero en realidad yo pienso que es al contrario: su papel es y será muy activo y consistirá en ayudar a consumir el potencial energético atrapado en cada burbuja local de la manera más rápida posible.

Ya lo vimos en profundidad en esta entrada anterior cuando hablamos sobre el vacío cuántico y el origen del Universo. La inteligencia y la complejidad estructural van de la mano, lo mismo que ambas se relacionan de manera directamente proporcional con una capacidad intrínseca para devorar gradientes energéticos.

La historia cósmica parece estar finamente engrasada y dispuesta para lograr por todos los medios su propia aniquilación "térmica" a un ritmo exponencial. Merece la pena mencionar en este sentido el trabajo del profesor Eric Chaisson, el cual explica muy claramente este destacado hecho de la evolución cósmica hacia la complejidad desde su mismo origen. De su obra fundamental en este sentido "Evolución cósmica: El aumento de la complejidad en la naturaleza" (Cosmic Evolution: The Rise of Complexity in Nature) hablé también en profundidad en esta otra entrada.

Desde el primer instante universal hasta su último suspiro "térmico" todo parece ir enfocado en una única meta natural térmica de "destrucción" potencial. Si esta meta u objetivo único atiende a cuestiones subyacentes meramente naturales (cuánticas) como parece ser el caso (y como expliqué aquí), o si esta meta tiene una base esencial más metafísica (como defendía por poner un ejemplo el bueno de Philipp Mainländer) quizás sea algo que se nos escape; no obstante podemos estar orgullosos de haber podido comprender hasta ahora gran parte de la trama que envuelve a la realidad de nuestro mundo, y más aún, comprender que es posible (e incluso probable) que tengamos un papel de importancia histórica dentro de esta tragicomedia existencial..."Out, out, brief candle!"


martes, 19 de diciembre de 2017

El vacío cuántico y el origen del Universo (II)

"There are no real one-particle systems in nature, not even few-particle
systems. The existence of virtual pairs and of pair fluctuations shows that
the days of fixed particle numbers are over."
(Viki Weisskopf)

Introducción.

Ayer finalicé el estudio del resto de cursos que el profesor Leonard Susskind impartió para la Universidad de Stanford hablando sobre una introducción a la teoría cuántica de campos (Quantum Field Theory - QFT), el modelo estándar de partículas, y sobre la Supersimetría y la teoría de la gran unificación (GUT). Es notable como este gran físico logra explicar de manera formal matemática todos estos asuntos, pero que a la vez lo haga utilizando la complicación justa y necesaria para transmitir la base esencial de lo que desea enseñar.  Podéis acceder a todas sus clases desde YouTubehttps://www.youtube.com/channel/UCNPslw9h5x5OqEBUX65DEmg ("Dios" bendiga la era de internet).

Ahora sí, después de varios años de duro "esfuerzo" (que en realidad no ha sido tal porque me encanta la física y las matemáticas ;) ), puedo decir que comprendo y entiendo formalmente el estado actual del arte en física moderna. Y confieso que durante algunos momentos llegué a flaquear en este intento, especialmente cuando di los primeros pasos en QFT y me topé con esos monstruosos lagrangianos, pero lo importante es que lo logré y que ahora mismo difícilmente ningún físico titulado (medio) sabrá probablemente mucho más de que lo que yo sobre la materia (esta afirmación la hago a partir de los manuales y exámenes que la Universidad de la UNED tiene disponible en su web a disposición del público en general).

Pues bien; me gustaría en esta entrada realizar un comentario personal y filosófico sacado a partir de mis conclusiones una vez entendida la física más actual.

La esencia del Universo.

El profesor Susskind menciona en varias ocasiones que lo que determina que en el Universo exista el fenómeno como tal, es el hecho de que el vació cuántico posee en ciertas regiones lo que él denomina como "impurezas". Perturbaciones que son las causantes de que los campos cuánticos subyacentes interaccionen, se acoplen, se mezclen y cambien. De no haber alteraciones espacio-temporales en los campos no existiría eso que llamamos partículas y todo sería un gigantesco vacío cuántico "inerte".

Así pues, el fenómeno del mundo es en cierto modo causa de cierto tipo de impulso primigenio (algo que se suele denominar como Big Bang). Pero la cuestión es que esta causa primera se la suele entender normalmente como una especie de explosión, cuando en realidad se la debería de ver más como una analogía del efecto que tiene lanzar una piedra sobre la superficie de un estanque de agua en calma.

En una anterior entrada donde intenté dar cuenta de una especie de introducción la teoría cuántica de campos (http://quevidaesta2010.blogspot.com/2017/11/introduccion-la-teoria-cuantica-de.html), ya vimos que la física moderna explica el mundo como una especie de mar de campos cuánticos (cientos de ellos) cada uno de los cuales ondula aquí y allá literalmente ofreciendo distribuciones de probabilidad de osciladores armónicos simples. Cada uno de estos cientos de mares que conviven juntos en el mismo espacio-tiempo poseen cosas en común, pero también diferentes propiedades intrínsecas. Por ejemplo, el campo cuántico de electrones es similar pero no igual al campo cuántico de muones, etc. Cada uno vibra de manera distinta ante una misma perturbación, y esas discrepancias llevan a un oleaje particular y colectivo muy peculiar y caótico ante una única perturbación inicial.

Es decir; que si entendemos el Big Bang como el golpeo de una piedra sobre el mar de mares en estado de reposo que es el vacío cuántico, podemos entender el fenómeno pasado, presente y futuro como consecuencia de las interferencias y acoplamientos entre las distintas y diferentes olas de probabilidad levantadas por esta alteración inicial y primigenia. Así pues la dinámica posterior al inicio de lo que entendemos por nuestro Universo pudo estar determinado directamente por el tipo de impulso que alteró el estado de vació primordial. Si modificásemos alguna cualidad de esa hipotética perturbación inicial, nuestro Universo de hoy ya no sería el mismo.

A todo esto que os he contado algunos científicos lo denominan como la aparición del Universo a partir de una fluctuación cuántica, pero creo que del modo en que yo lo he descrito queda más claro de entender, al menos visualmente.


¿Por qué es el mundo como es?

Sobre nuestro mundo fenoménico todos los físicos concuerdan en que pudo haberse comportado de muy diversas maneras alternativas. Existen muchas constantes y aspectos en las leyes físicas que pudieron ser diferentes desde el mismo inicio del Universo. Sin embargo son como son, y además son tales que permiten la aparición de fenómenos tan complejos como la vida consciente (principio antrópico).

Podemos preguntarnos entonces lo siguiente: ¿es el principio antrópico la explicación final a la pregunta de por qué el mundo es como es en lugar de ser de otro modo (puesto que de ser de otro modo "incompatible" no podríamos estar aquí haciéndonos esta pregunta)? Personalmente yo creo que es ésta una respuesta parcial. Y opino que es una respuesta parcial porque no da cuenta de un hecho muy significativo: la vida inteligente tiene en principio cabida en muchos otros tipos de mundos imaginables a parte del nuestro (de hecho habría quizás una infinidad de alternativas imaginables). Es decir, que en principio otra serie de leyes y constantes físicas muy distintas a las nuestras también tendrían el potencial para generar consciencia, pero sin embargo nosotros nos encontramos en un mundo muy particular y determinado: ¿por qué no en otro? ¿Por qué nos encontramos en un mundo con leyes microscópicas (y microscópicas) tan "extrañas" y complicadas en lugar de encontrarnos en un mundo más "clásico" (en todas las escalas)?

Probablemente el hecho de que exista vida consciente y de que las leyes naturales sean las que son y no otras debe de tener alguna especie de correlación; una explicación esencial o trascendental que de momento se nos escapa. En otras palabras; que posiblemente el hecho de que nosotros (la vida consciente) estemos aquí en esta particular realidad física debe suponer que nuestra presencia (la de cualquier ente inteligente) debe ser de algún modo condición necesaria para la propia existencia particular del Universo.

Bien podría ser posible que, sin el potencial de la vida, nuestro Universo no hubiese podido siquiera emerger del vacío cuántico. La diferencia con el mero principio antrópico es sutil pero evidente: no se trata sólo de marcar el hecho de que el mundo sea como es constituye una condición suficiente para que existan seres capaces de preguntarse por las peculiaridades de su realidad, sino de que quizás el hecho de que existan este tipo de seres también podría ser condición necesaria para la propia existencia de este tipo de mundos.

¿Para qué podría ser necesaria la existencia de objetos inteligentes?

1. La causa de la inteligencia.

Preguntémonos primero sobre cual es la causa de que exista la inteligencia en el Universo (como poco en el planeta Tierra). La respuesta es simple (a pesar de que la dinámica implicada sea compleja): la vida es posible gracias a las leyes termodinámicas de la física. Si el mundo se comportara de otro modo a nivel termodinámico (principalmente en sistemas lejos del equilibrio térmico), la complejidad necesaria para que apareciese la vida primero y para que ésta evolucionara hacia entes inteligentes y conscientes luego no habría sido posible.

Una gran estirpe de físicos, empezando por el famoso Erwin Schrödinger y finalizando quizás con el actual Jeremy England, han trabajado fuertemente en esta línea: parece ser que la evolución biológica y las bases de la termodinámica van muy de la mano. También es de destacar el trabajo del profesor Eric Chaisson, el cual explica muy claramente el destacado hecho de la evolución cósmica hacia la complejidad desde su mismo origen. De su obra fundamental en este sentido "Evolución cósmica: El aumento de la complejidad en la naturaleza" (Cosmic Evolution: The Rise of Complexity in Nature) hablé en profundidad en esta otra entrada.

Según estos autores todo lo existente en el cosmos es pues un medio utilizado por el Universo para satisfacer un único "fin" natural (termodinámico): devorar tan pronto con sea posible toda la energía libre (capaz de generar trabajo) que la aparición de cualquier tipo de gradiente supone (diferencias entre ciertas propiedades fenoménicas). Es decir; que la física del mundo posee desde su mismo instante inicial un gran potencial para posibilitar el cambio fenoménico, pero al mismo tiempo también posee desde el principio una fuerte tendencia intrínseca esencial dirigida a abolir -mediante su auto-organización- tan pronto como sea posible cualquier diferencia fenoménica (potencial) acontecida.

Es esta auto-organización tendente a devorar de manera óptima la energía libre la fuente de toda la complejidad observada en el cosmos: desde la formación de los propios átomos y moléculas, pasando por las galaxias, las estrellas, los planteas, y por supuesto la vida. Toda complejidad no es así más que una reacción natural (termodinámica) espontánea tendente a mejorar el modo en que degradar y disipar eficientemente toda esta energía. Podemos entender por tanto cualquier complicación observada, y su propia dinámica, como un método natural mediante el cual el Universo responde y se organiza a sí mismo para mantener su teleológico (que no teológico) "deseo" de devorar energía libre al mayor ritmo posible. Así pues, de este modo y yendo al caso particular del hombre, vemos que éste sí que posee después de todo una clara función objetiva compartida por el resto de fenómenos complejos: leones, gacelas, plantas, algas, bacterias, virus, moléculas, átomos, huracanes, ríos, cristales, estrellas, galaxias, etc.

 No podemos hablar ya de irrelevancia direccional en el mundo de las leyes físicas. No es posible entender que todo cambio en el fenómeno sigue un curso intrascendente o contingente por lo general, sino que debemos aceptar que todo sigue un devenir bien "intencionado". Hay objetivo en las leyes físicas que gobiernan el mundo porque hay dirección y sentido, hay finalidad: ¡y todos (entes animados e inanimados) conformamos un gradual continuum de medios y "soluciones" mediante los cuales el Universo consigue su "propósito"!

Pero no confundamos los términos: a la Naturaleza no le "interesa" en concreto la existencia y permanencia del ser humano (del Homo Sapiens Sapiens) o de cualquier otra estructura o ser, más que de un modo temporal; mientras sea una estructura lo suficientemente eficaz a la hora de acaparar localmente energía libre. Y por supuesto no se está defendiendo que la Naturaleza busque algún tipo de progreso estético, ni mucho menos ético, ni tampoco ningún progreso que podamos relacionar ni remotamente con algún concepto relativo al hombre o a nuestra humanidad.  El mundo sólo "quiere" realmente abolir gradientes, y para ello hace uso siempre de los mejores medios a su alcance en cada momento y en cada circunstancia. Y es esta y no otra la verdadera causa ultima de toda la dinámica (y la conducta) observada en el mundo de la complejidad dentro de sistemas fuera del equilibrio térmico (como por ejemplo es el caso de la Tierra). El hombre pues sólo constituye una pequeña parte (temporal y prescindible) dentro de un enorme engranaje Universal.




2. La utilidad práctica de la inteligencia.

Si la causa de la aparición de la inteligencia es el "deseo" natural de consumir energía libre al máximo ritmo posible dada las circunstancias, la utilidad práctica de la misma vemos evidentemente que es la de favorecer y aportar eficientemente en favor de esta "necesidad" Universal.

La inteligencia pues es útil porque permite alcanzar cotas de degradación y consumo energéticos a un ritmo (exponencial) que no sería posible lograr sin ella. Es un paso natural y espontáneo más dentro de una autónoma escalada cósmica en pos de destruir tanta energía libre como se pueda conforme el Universo se desarrolla en el tiempo. Complejidad, inteligencia y cantidad de consumo por unidad de masa son conceptos íntimamente relacionados (aunque tal relación no sea evidente a primera vista).

Se podría concluir que la inteligencia en realidad es un fenómeno universal existente en cada tipo de estructura física del mundo, pero cuya cantidad va variando gradualmente según sea la capacidad neta por unidad de masa que cierto objeto posee para consumir energía. Cuanta más capacidad, más inteligencia y también más complejidad estructural. El hecho de que tradicionalmente sólo denominemos inteligencia al comportamiento dinámico de ciertos animales es una convención arbitraria y poco objetiva.

3. La utilidad esencial de la inteligencia.

La utilidad práctica de la inteligencia creo que quedó clara: explorar y explotar la información sensible del fenómeno para conseguir así mejorar la manera en la que continuar el aumento en el consumo energético al mayor ritmo posible. Como ya vimos, en este sentido más amplio y reformulado del término cualquier objeto del Universo posee cierta cantidad de inteligencia (por mínima que sea). Las gráficas de arriba, de hecho, son una buena ilustración de esto que decimos. El cosmos se estructura en el tiempo cada vez en estructuras más complejas y eficientes a la hora de consumir, lo cual es claro indicativo de que la inteligencia también sigue de la mano esa curva mostrada; siendo quizás complejidad e inteligencia de alguna manera casi distintas representaciones de un mismo hecho físico.

Por lo tanto, la pregunta original que nos hacíamos sobre por qué podría ser necesaria la inteligencia para la posibilidad en la existencia del Universo, podemos ahora retomarla del siguiente modo: ¿por qué podría necesitar el cosmos esa tendencia natural hacia lograr estructuras cada vez más complejas y eficientes a la hora de abolir gradientes? Así pues, la utilidad esencial de la inteligencia irá de la mano con cualquier posible necesidad natural en favor de este aumento constante en la complejidad estructural del cosmos.

¿Por qué podría necesitar nuestro Universo de esa constante tendencia teleológica mostrada en las leyes termodinámicas?

Dijimos al principio que la conjunción de la cosmología del Big Bang y la moderna física de partículas (el modelo estándar de campos cuánticos), hacen previsible que nuestro Universo sea la manifestación de algún tipo de perturbación o fluctuación en un vacío cuántico preexistente. Así pues, según la ciencia más actual parece ser que las leyes físicas cuánticas son anteriores o incluso que son el soporte previo o primigenio de todo el fenómeno observado a nuestro alrededor, lo cual no sería más que una "impureza" o alteración del estado fundamental del vacío.

Si esto es realmente así, no cabe duda de que la tendencia natural principal del fenómeno debería de ser entonces la de intentar en todo momento una "restauración" completa al estado básico de origen (el estado fundamental del vacío cuántico). Esta tendencia se observa claramente de hecho en cuanto que todo sistema tiende siempre al estado de mínima energía (energía fundamental). Si obligamos, por ejemplo; a un átomo a que posea algún electrón en un estado energético excitado, la tendencia espontánea natural será la del rápido decaimiento (restauración) del electrón al estado más fundamental posible. Y lo mismo podría ocurrir con nuestro Universo tomado como un todo teniendo en cuenta que este principio de energía mínima es esencialmente una repetición de la segunda ley de la termodinámica (la cual lleva como vimos antes bajo ciertas circunstancias al incremento en la complejidad estructural).

Restricciones cuánticas en el tiempo de restauración.

En mecánica cuántica tenemos el principio de indeterminación de Heisenberg, el cual impone claras reglas matemáticas sobre lo que es posible o no observar en el mundo. Una forma de interpretar este principio de indeterminación se relaciona directamente con una indeterminación tiempo-energía la cual viene a expresar matemáticamente la relación que determina de manera básica en el mundo cuántico los conceptos de energía (materia) y tiempo:

{\displaystyle \Delta E\cdot \Delta \tau \geq {\frac {\hbar }{2}}}

donde la h es la constante de Planck (para simplificar, {\displaystyle {\frac {h}{2\pi }}} suele escribirse como {\displaystyle \hbar }).

El valor conocido de la constante de Planck es:

{\displaystyle h=\,\,6,626\ 0693(11)\times 10^{-34}\ {\mbox{J}}\cdot {\mbox{s}}\,\,=\,\,4,135\ 667\ 43(35)\times 10^{-15}\ {\mbox{eV}}\cdot {\mbox{s}}}

Al respecto de lo que venimos aquí tratando, la inecuación anterior supone una clara restricción en el tiempo en que una cantidad de energía cualquiera puede "aparecer" desde el vacío cuántico en forma de fenómeno ("impureza") antes de desaparecer de nuevo (restauración). Esto supone por tanto que no es posible que cierta cantidad de energía E "aparezca" de la nada (cuántica) a menos de que el tiempo que "dure" esta existencia se ajuste a la inecuación anterior una vez se multiplique el valor aparecido de nueva energía (ΔE = E - 0) por el tiempo de su duración existencial (Δt = Tf - Ti).

En resumen: para que algo (energía-materia) surja del vacío cuántico (la "nada") se debe cumplir siempre la relación,

(E - 0) x Δt >= (h/2π)/2

Este hecho es utilizado principalmente en el modelo estándar de partículas al calcular las probabilidades observables en la interacción, decaimiento y disperción (scattering) de partículas teniendo en cuenta para ello las aportaciones de la infinidad de partículas "virtuales" que salen y vuelven a la "nada" en un tiempo tan pequeño que no se viola en ningún momento el principio de indeterminación que hemos examinado.

Merece la pena hacer hincapié en que estas partículas "virtuales" de las que habla la física de partículas son tan reales como las partículas observables, sólo que duran tan poco en la existencia (para no violar el principio de incertidumbre) que no hay manera práctica (ni teórica) de poder detectarlas experimentalmente. No obstante por lo demás son tan "normales y corrientes" como las demás.

Restaurando a todo el Universo.

Si como hemos supuesto, el origen de nuestro Universo particular se basa en un vacío cuántico preexistente, es bastante posible que todas las leyes cuánticas sean también previas e independientes de nuestra realidad local. En este sentido debería de aplicarse también el principio de indeterminación de Heisenberg al cosmos por entero.

El mundo supuso, con el Big Bang, la aparición desde el vacío cuántico de una cantidad de energía en forma de radiación (y posteriormente materia) muy similar al proceso que supone la aparición de varias partículas "virtuales" en un proceso microscópico cualquiera. Y del mismo modo en que dichas partículas deben "devolver" la energía tomada del vacío en un tiempo que esté de acuerdo a la inecuación de Heisenberg, lo mismo se podría de decir de nuestro Universo en su conjunto.

Imaginemos un génesis como el siguiente:

En el principio no había "nada" (a parte del "puro" vacío cuántico). Sin embargo este vacío no era estable y estaba sujeto a continuas fluctuaciones acordes siempre al principio de indeterminación. Durante eones una infinidad de fluctuaciones acontecieron en este vacío. La mayoría de tales fluctuaciones supondrían la aparición de cantidades de energía muy pequeñas (con fenómenos poco interesantes) o de cantidades de energía mayores pero con una duración casi nula (dada la relación anterior).

Y sin embargo nosotros vivimos en un rico y gran Universo que además es muy estable (capaz de permanecer durante millones de años sin "decaer"). ¿Cómo es posible?

La única manera imaginable en que pudo aparecer un rico y complejo Universo como el nuestro sería gracias a un fortuito y constante ajuste en la energía neta global de manera tal que su valor se encuentre siempre cercano a cero (al tenerse en cuenta la suma y resta de toda la materia, energía cinética y potencial). Esto permitiría que la cantidad de energía "prestada" fuese muy pequeña (permitiendo un Δt muy grande) al mismo tiempo que dicho mundo sería capaz de presentar una dinámica interesante y compleja. Por tanto, si la energía neta de la fluctuación inicial (al sumar y restar) fue lo suficientemente cercana a 0 (aunque no igual a cero puesto que a partir de una energía de valor igual a 0 el vacío no sería perturbado), la inecuación permitiría una duración casi ilimitada de existencia y aún así no se violaría el principio de incertidumbre.

Pongamos números con un ejemplo. Si una fluctuación en el vacío supone la aparición de una cantidad de energía ΔE = (E - 0) ~ 0.0000000.....1, entonces:

 (0.0000000.....1) Δt >= (h/2π)/2, 

lo cual implica que (usando unidades naturalizadas):

Δt >= 1/(2*0.0000000.....1) ~ 1 / 0.00000......2 ~ millones de años.

Así pues, si por ejemplo la energía neta creada en nuestro "génesis" particular fue igual a 0,000000000000000001, la incertidumbre pondría una cota inferior al tiempo de vida del Universo en un valor Δt = T >= 500000000000000000 segundos ~ 15.854.895.990 años. Bastaría con poderse mantener (conservar) la energía neta en esos rangos de valores tan pequeños para asegurarse una buena estabilidad existencial.

Recapitulando:

Si la energía neta inicial creada tras el Big Bang fue de un valor igual a 0,000000000000000001; tendríamos que: 

(0,000000000000000001) Δt >= (h/2π)/2, 

lo cual obliga a que la incertidumbre en el tiempo sea enorme de manera que se consigue una cota inferior (la que satura y convierte la desigualdad en una igualdad) en torno a Δt ~ 15 mil millones de años.

En resumen se puede concluir que si se desea lograr una buena estabilidad existencial en el tiempo (de millones de años como es el caso de nuestro mundo) mediante un proceso de fluctuación cuántica de vacío, es necesario que la energía neta global generada inicialmente posea y mantenga un valor muy cercano a cero (lo cual es precisamente lo observado empíricamente en nuestro Universo de estructura casi plana).

Pero, ¡ojo! Como ya dijimos no vale sólo con que la cantidad de energía-materia aparecida del vacío sea pequeña, sino que debe ser pequeña a la vez que permita una rica variedad de fenómenos complejos y una dinámica compleja. Necesitamos crear el potencial para generar miles de billones de partículas (para que una inteligencia como la nuestra tenga cabida y se pueda preguntar por el mundo) al mismo tiempo que necesitamos que el acoplamiento y la interacción de toda esa "impureza" sume un valor muy cercano a cero (energía neta). ¿Cómo conseguir tal cosa?

¿Cómo lograr complejidad fenoménica a partir de una cantidad de energía neta cercana cero?

En el Universo ciertamente observamos movimiento y cambio, y esto se debe simplemente a que existen ciertas zonas del mundo (posiciones locales) más densas energéticamente que otras, lo cual produce gradientes y potenciales que la termodinámica procede luego a abolir del modo más rápido posible. Pero insistamos en que todo este movimiento a nuestro alrededor no implica que la energía global sea muy grande. De hecho, cuando los astrofísicos proceden a sumar y restar la energía (cinética y potencial) de todo lo que el mundo contiene ¡terminamos con una cantidad energética neta casi nula (un mundo geométricamente casi plano)!

Al respecto, el profesor Eric Chaisson nos explica que fue la propia expansión del espacio originado tras el Big Bang lo que permitió, dadas las leyes naturales en su conjunto, la aparición de lo que se denomina como energía en potencia (energía potencial); pero que la aparición de este tipo de energía fue aparejada inmediatamente por una aversión a las diferencias en las propiedades físicas locales (gradientes) que ésta potencialidad no homogénea propiciaba. El Universo parece "buscar" así de alguna manera alcanzar siempre un complicado equilibrio energético en su conjunto: ¡necesitando de una continua lucha interna capaz de mantener la incertidumbre en la energía neta entorno a valores cercanos a cero!

El potencial de complejidad requerido por el principio antrópico fue originado por la expansión inicial del Universo, pero al mismo tiempo esta expansión tiende a desequilibrar (aumentar) la energía global del cosmos lo cual supone que dicha expansión deba ir acompañada de una restauración entrópica cada vez mayor: ¡y eso es justo lo que al inicio de este trabajo denominamos como  la "búsqueda" esencial del mundo en pos de cada vez mayores grados de complejidad estructural (inteligencia)!

Conclusión.

El mundo necesita para poder existir durante millones de años obedecer la inecuación de Heisenberg con valores netos en la incertidumbre en la energía muy cercanos a cero. Pero para que exista un movimiento fenoménico rico y abundante (capaz de albergar objetos y entes "interesantes"), dicha energía cercana a cero debe de conseguirse mediante un continuo equilibrio neto global (de sumas y restas). La única manera de obtener una rápida y abundante potencialidad existencial (una dinámica rica) es mediante la expansión acelerada en el espacio-tiempo de algún tipo de in-homogeneidad primigenia (alguna pequeña diferencia en la densidad originada tras la fluctuación cuántica de vacío debe crecer exponencialmente: lo que se conoce de hecho en cosmología como el proceso inflacionario). Pero esta expansión requerida para lograr una dinámica "interesante" supone al mismo tiempo un desequilibrio energético. Por lo tanto debe de existir un proceso alternativo capaz de contrarrestar este desequilibrio que cada vez va a más. Este proceso no es ni más ni menos que el constante aumento observado en la eficiencia de las estructuras naturales para abolir los nuevos gradientes energéticos que desde el Big Bang la expansión espacial de la in-homogeneidad original ha ido generando.

Y como el ritmo de expansión del Universo crece exponencialmente, así debe también crecer la capacidad en la estructura fenoménica para poder mantener este equilibrio necesario. La complejidad cósmica debe continuamente crecer y evolucionar para lograr mantener a raya la energía neta universal. Como resultado de esta continua evolución se obtienen cada vez organizaciones materiales más y más eficientes, lo cual como ya vimos es síntoma del un requerido aumento en la gradación de la inteligencia (reformulada de la manera en que lo hicimos).

La inteligencia (el aumento en la complejidad organizativa con fines de eficiencia térmica) es pues un hecho necesario para que un Universo tan rico y complejo como el nuestro sea capaz de "sobrevivir" durante miles de millones de años gracias a esa asombrosa lucha interna de equilibrios.

Si el Universo no fuese capaz de albergar vida consciente (debido a una incorrecta dinámica o a un mal ajuste de las constantes físicas iniciales) nosotros no estaríamos aquí (fallaría la condición suficiente de nuestra existencia), pero al mismo tiempo, si el Universo no poseyera la propiedad de poder refrenar (contrarrestar) la expansión potencial originada tras Big Bang gracias a una capacidad intrínseca para abolir gradientes a un ritmo cada vez mayor, su existencia fuera del vacío cuántico sería ridículamente breve. Es por lo tanto también una condición necesaria para la existencia de Universos como el nuestro (grandes y estables) que llegue un momento en que ese crecimiento en la complejidad estructural de paso a seres como nosotros y nuestra sociedad (complejos entes nacidos fruto de esa constante y continua evolución cósmica natural en favor de mantener el necesario y proporcional equilibrio energético).

Un enorme Universo nacido de una fluctuación cuántica no sería capaz de mantener su estabilidad temporal sin un complejo sistema de control energético. Y ese sistema requiere de un continuo proceso de ajuste cósmico (evolutivo). Esta evolución supone una continua escalada en la complejidad estructural capaz de alcanzar cada vez mayores cotas de eficiencia en el consumo de energía libre, y por lo tanto la gradación en la inteligencia debe tomar necesariamente un camino ascendente hasta llegar a la aparición de seres como nosotros.

Quizás ahora las gráficas y tablas que Eric Chaisson incluye en su libro os cobre más sentido:




Podríamos concluir por tanto que el principio de indeterminación de Heisenberg permite sólo tres escenarios posibles para cualquier Universos nacido a partir de una fluctuación en el vacío cuántico:

1) Universos muy estables y duraderos, de energía pequeña pero sin una dinámica rica. El fenómeno en tales mundos sería pobre e inerte, e incluso el cambio o el movimiento serían conceptos difícilmente aplicables en ellos.

2) Universos de gran energía pero con una duración efímera. No tiene aquí tampoco mucho sentido hablar de una dinámica "interesante", puesto que el tiempo de vida del conjunto no sería suficiente siquiera para lograr el más mínimo movimiento antes de su desaparición.

3) Universos estables y duraderos, de baja energía pero con una fenomenología rica capaz de dar sentido a los conceptos de cambio y movimiento.

Los tipo 1) y 2) aparecen y desaparecen del vacío cuántico sin más, pero el tipo 3) requiere como vimos de una condición necesaria ineludible: que posea un sistema de control energético intrínseco y autónomo que tienda a generar estructuras materiales cada vez más complejas y capaces de mantener en el tiempo el valor energético neto en un valor casi nulo. Ese aumento de complejidad va de la mano con un aumento en la inteligencia (cuyo concepto reformulamos), de tal manera que para que sea posible la existencia de estos Universos tipo 3) es obligatorio que tarde o temprano la gradación en la inteligencia acabe moldeando seres como nosotros.

La obsolescencia programada del ser humano.

A todos nos gusta creer que el Homo Sapiens Sapiens "reinará" (al menos aquí en la Tierra) hasta el fin de los tiempos, pero seamos realista: nuestra especie tiene los años contados. El necesario crecimiento en la gráfica de arriba no permite que ninguna estructure permanezca inalterada por mucho tiempo. Todo debe evolucionar sin cesar dando paso cada vez a nuevas configuraciones materiales capaces de llevar la cuenta en el equilibrio energético natural. Quizás estemos por aquí un par de milenios más, pero probablemente y de manera gradual nuestra esencia como especie irá cambiando. Posiblemente nuestro fin venga de la mano del origen de algún nuevo ente capaz de llevar la gráfica anterior más lejos en cuanto a eficiencia, y no cabe duda de que un firme candidato en este sentido se encuentra en los avances en las ciencias de la computación. Ya sea por "mestizaje" (cibernético) o por sustitución directa, es muy posible que dentro de varios cientos o miles de cientos de años nuestro planeta tenga un nuevo rey natural. Posiblemente algún objeto no biológico "catalizado" por la humanidad. Es imposible saber cómo será tal nueva "especie" metálica, pero no cabe duda de que serán nuestros "descendientes". Más inteligentes (según nuestra reformulación del concepto) y por ende mucho más eficientes en cuanto al consumo de energía libre. Serán autónomos en cuanto a auto-replicación y mejora continua, y serán ellos los que acaben llevando (de manera indirecta) al hombre a colonizar otros planetas (y con el tiempo a casi todo aquel sistema cósmico abarcable). Más pronto que tarde (a escalas de tiempo cosmológicas) sus enormes capacidades para abolir gradientes al máximo se extenderán por todas partes, y en otros puntos galácticos un proceso muy similar al acontecido aquí en la Tierra llevará a una expansión supra-biológica similar. El futuro del Universo por lo tanto está marcado desde su origen a terminar siendo un gigantesco conglomerado estructural de materia "super-inteligente" devorando cualquier potencial energético a un ritmo tan desorbitado que nuestro limitado cerebro es incapaz siquiera de imaginar qué aspecto llegará a poseer el mundo en ese instante de tiempo (lo mismo que no podemos imaginar tampoco como pudieron ser realmente sus primeros segundos de existencia).

Vuelta a la calma.

Dijimos al principio que se puede entender el Big Bang como una alteración o impulso acontecido sobre el vació cuántico. Entendimos como esa perturbación fue desplazándose por entre los distintos campos cuánticos produciendo el equivalente a grandes olas o turbulencias de probabilidad que produjeron la aparición y dinámica de eso que entendemos como partículas.

Pues bien, la futura "muerte" térmica que asegura la segunda ley de la termodinámica se puede entender como la vuelta a la calma de toda esa perturbación en los campos. La turbulencia poco a poco desaparece, y las ondas de probabilidad se van haciendo cada vez más planas hasta que en el límite (cuando el tiempo acabe con todo el potencial disponible), podremos decir que la inestabilidad cuántica que generó nuestro Universo se habrá restaurado por completo.

Atrás quedará en ese momento una completa y larga historia universal de la que nosotros habremos formado parte muy activa, no sólo como especie ("catalizando" con suerte una nueva generación estructural más eficiente), sino también como individuos (ya que cada uno de nuestros suspiros y actos habrán contribuido irreversiblemente a mantener este equilibrio térmico durante nuestra leve existencia personal -podéis leer al respecto esta otra entrada donde hablé de este legado entrópico). Somos títeres dentro de una compleja obra de teatro, pero también somos en parte la razón de ser de la propia obra. Un mundo como el nuestro, salido de la nada, necesita de la inteligencia para poder persistir; y desde luego cualquier inteligencia necesita de un mundo similar al nuestro para poder llegar a realizarse.



Todo está escrito.

Imagina que dos electrones se aproximan uno al otro hasta que interaccionan y se repelen. Durante el proceso, la esencia del mundo tiene en cuenta todas y cada una de las interacciones posibles entre estas dos partículas reales y otras tantas partículas "virtuales" con las que el campo cuántico del electrón se puede acoplar durante este proceso dinámico.

Gráficamente los primeros órdenes de interacción serían los siguiente:



Las líneas que entran y salen de cada diagrama son partículas reales (los dos electrones), mientras que las partículas intermedias son partículas "virtuales" (en el sentido de que duran tan poco en la existencia que su vuelta a la nada se produce sin que se viole el principio de indeterminación que ya discutimos antes). Pero la cuestión a recalcar es que el mundo conoce y permite a priori sólo aquellas interacciones que no van a violar el principio de incertidumbre. Aquellos procesos "virtuales" que podrían suceder pero que violarían en tal caso este principio básico sencillamente no acontecen ni aportan en absoluto al cálculo de la interacción. Se puede entender de este modo que el Universo en sí sabe en todo momento antes de que cualquier dinámica sea efectiva lo que puede o no suceder de acuerdo a sus propias reglas.

Y en este mismo sentido, si del vacío cuántico se permitió aparecer a un Universo como el nuestro...¡es porque la realidad cuántica esencial subyacente ya sabe (ya supo) a priori que se pagará (que pagaremos) el saldo energético a tiempo! La historia universal debe estar pues escrita desde de su mismo origen. Su historia ya fue predicha, y su final está determinado desde su primer instante: la "muerte" térmica llegará a tiempo, y el equilibrio energético se mantendrá hasta el final.

Esta por ver cuánto será finalmente nuestro grado de contribución particular como especie (mediante esa posible descendencia tecnológica nuestra), pero es innegable que todo estos hechos comentados otorgan a cada una de las personas, seres y objetos del Universo en general de una clara meta y sentido objetivo: ¡aportar y luchar en favor de la propia existencia cósmica!

Esta fluctuación cuántica en la que vivimos le debe a cada una de sus partes constituyentes su razón de ser, y la razón de ser de cada parte constituyente es la de ayudar al propio ser universal. Todo lo natural es manifestación de una única unidad esencial en favor del necesario ser y permanecer.



viernes, 8 de diciembre de 2017

¡Más potencia!

«¡Es la guerra! ¡Traed madera! ¡Más madera!» 
(Los hermanos Marx)

Introducción.

El mundo de las ciencias de la computación están estos días de enhorabuena, un nievo hito histórico acaba de acontecer: hablamos por supuesto del casi milagroso desarrollo de Google DeepMind denominado AlphaZero, un modelo neuronal capaz de aprender de manera autónoma no supervisada (sin apoyo de datos etiquetados ofrecidos por el hombre) a jugar con capacidades sobrehumanas a varios juegos milenarios como el Go y el ajedrez (aquí podéis descargar el paper de este proyecto).

DeepMind acaba de demostrar así que la metodología que utilizaron para que un modelo neuronal aprendiera (con capacidades sobrehumanas) por sí misma sin apoyo de datos humanos el juego de Go, es generalizable a cualquier otro tipo de juego o situación. En el arriba comentado paper nos explican por ejemplo como en 4 horas (sí, sólo 4 horas), la red neuronal fue capaz de aprender a jugar al ajedrez (entre otros juegos) con una capacidad no sólo sobrehumana, sino superior a cualquier inteligencia artificial "clásica" creada por el hombre en estos juegos (con reglas de juego programadas y dictadas a mano con respaldo de una fuerza bruta computacional). Es decir, que la metodología que utilizaron hace unos meses en AlphaGo Zero ahora han demostrado que es fácilmente extensible a cualquier otra situación o juego (de ahí que al modelo mejorado ahora lo llamen AlphaZero a secas). De ahora en adelante ya sabemos que un modelo neuronal es capaz de aprender solo y sin supervisión humana alguna con sólo recibir de entrada el estado actual del juego y nada más (ya no hay que "explicar" ni programar a mano absolutamente nada para que una red neuronal pueda aprender y superar nuestras habilidades). Se puede decir que el ser humano ya sobra para conseguir que un modelo neuronal aprenda a ejecutar con éxito una gran variedad de situaciones.

Y por si esto no fuese suficiente para convencer al lector más escéptico, también hay que remarcar otro avance de Google realizado el mes pasado: AutoML (https://research.googleblog.com/2017/11/automl-for-large-scale-image.html). Se trata ni más ni menos que de un modelo neuronal capaz de generar (crear) por sí sólo otro modelo neuronal "hijo" orientado en la resolución de una tarea específica independiente. Y hay que remarcar dos cosas de AutoML: 1º) Es un modelo neuronal que es capaz de generar y crear de manera autónoma sin apoyo humano otro modelo neuronal, y 2º) El modelo neuronal "hijo" creado de esta manera autónoma es superior a cualquier modelo que haya sido capaz un ser humano de crear hasta la fecha a mano ajustando los parámetros de una red neuronal (al menos en la tarea de clasificar imágenes donde han comenzado a probar este prodigio). Google DeepMind también está estudiando esta aproximación en recientes publicaciones como en el trabajo "Population Based Training of Neural Networks", donde estudian un modo de mejorar la eficiencia de los desarrollos de machine learning eliminando la necesidad de que un ingeniero humano ajuste los parámetros de la red neuronal...y realmente consiguen resultados prometedores. De hecho superan el estado del arte en varias tareas gracias al simple hecho de borrar al hombre de la ecuación.

Todos estos casos (especialmente el de AlphaZero) suponen un innegable paso adelante hacia la consecución de una inteligencia artificial general, y demuestran además que la única limitación en este sentido ha sido (y será por un tiempo) la potencia de cálculo. Estos hitos históricos que venimos presenciando los últimos 5 años sólo han sido posible de hecho gracias al uso de enormes recursos de computación por parte de grandes compañías privadas. En cierto sentido los avances teóricos palidecen en comparación al avance que la ley de Moore nos ofrece en potencia computacional (Hardware).

Valga en este sentido comentar que Google DeepMind sólo ha podido alcanzar sus hitos más actuales gracias a las nuevas tarjetas gráficas dedicadas y especializadas al machine learning (las TPU). Tarjetas que son propiedad exclusiva de Google y que de momento nadie más puede adquirir en el mercado.

Un poco de humildad.

El factor que más peso tiene en aquellas personas que no creen que la inteligencia artificial general vaya a llegar (por no hablar de una consciencia artificial) es la falta de humildad. Pensar a priori y sin base empírica que nuestras capacidades humanas son diferentes o se basan en sustratos o principios no materiales, o materiales pero difícilmente replicables. Se trata de una evidente falacia que se puede rastrear como poco hasta tiempos de Descartes.

La ciencia ha demostrado que ningún sustrato no material da soporte a nuestra mente, y también desde Darwin que todo en el hombre; desde el dedo del pié hasta su cerebro, es producto de un gradual, acumulativo y lento proceso evolutivo. Ya no hay pues cabida para nada inmaterial ni tampoco para la aparición fisiológica o conductual de estructuras que no sean explicables por la mera evolución. Esto implica pues que nuestra mente y la consciencia deben ser productos materiales y evolucionados durante millones de años. En este sentido es de perogrullo concluir que es el cerebro y el sistema nervioso en general el responsable de toda nuestra conducta y subjetividad.

En este sentido me gustaría que vieseis conmigo a continuación esta breve sesión de neuroanatomía impartida por el profesor Leonard E. White (este vídeo forma parte de un completo curso que puedes seguir de manera gratuita en Coursera):



El sistema nervioso central es el encargado de procesar la información. Los nervios le llevan información desde los sentidos y también transmiten la salida del procesado a los músculos. Y este procesado de información de entrada y salida, junto con cierta retroalimentación interna de varias zonas y subredes neuronales, es todo lo necesario para explicar nuestra mente. No hay ni se requiere de ninguna res cogitans ni tampoco es admisible ningún agente o explicación que no quepa dentro de los límites evolutivos.

El algoritmo humano.

Uno de los fragmentos que más me han gustado del último libro de Yuval Noah Harari, "Homo Deus: Breve historia del mañana" ha sido el siguiente:


La conducta humana, toda ella; como bien indica Yuval Noah Harari, se reduce a complejos cálculos de probabilidades acontecidos en el sistema nervioso central. Un órgano evolucionado gradualmente durante millones de años. Todo en nosotros se reduce pues a la ejecución de intricados algoritmos ejecutados en el cerebro.

El poderío de la red neuronal biológica.

Pero, ¿cómo pudo la Naturaleza lograr semejante procesador de cálculos capaz de tener en cuenta tanta información externa y de manera simultánea? ¿Cómo es posible acaparar y filtrar tanta información y aún así ser capaz de generalizar y obtener patrones de entre todo ese caos sensorial? ¿Y cómo aplica con éxito luego esos necesarios cómputos probabilisticos capaces de lograr con éxito los fines evolutivos de supervivencia y reproducción? La respuesta son las redes neuronales biológicas.


La capacidad de cálculo que estas redes neuronales poseen son realmente asombrosas. Pueden aproximar funciones no-lineales y actuar de manera paralela con información llegada de muy diversas fuentes. El flujo de información eléctrica que recorren los billones de neuronas por entre el trillón de sinapsis en el cerebro del hombre suponen la explicación evidente de toda nuestra capacidad. No hay nada más a parte de este sustrato material evolutivo, tampoco hace falta introducir nada más en la ecuación. Las redes neuronales poseen el poder computacional necesario y suficiente para dar cuenta de nuestra conducta y subjetividad, y aunque aún nos quede mucho por aprender de este órgano, es de necios aprovechar este desconocimiento temporal para introducir postulados metafísicos, místicos o seudocientíficos (como eso de querer introducir a la mecánica cuántica como parte del fenómeno de la consciencia con calzador y sin evidencia ni soporte empírico alguno).

El poderío de la red neuronal artificial.

El poderío y la capacidad de cálculo no lineal de la red neuronal biológica es fácilmente replicable en un ordenador cualquiera. Es posible simular este comportamiento biológico, y es de hecho esta imitación la que está posibilitando TODOS y cada uno de los avances tecnológicos acontecidos en la última década en el terreno de la inteligencia artificial.



Si coges tu móvil y cuando le hablas es capaz de reconocer tu voz y transcribir lo que dices casi sin errores, debes saber que lo que tu móvil está haciendo es ejecutar una red neuronal artificial que simula el funcionamiento de parte de la red neuronal de nuestro propio cerebro encargado de esta tarea. Y esto mismo ocurre con los sistemas de traducción entre lenguas, con la voz sintética que nos habla, e incluso con las simpáticas aplicaciones que detectan nuestra cara en la cámara del móvil para pintarnos encima sombreros y otras cosas graciosas. Lo mismo que cuando nuestro coche es capaz de ayudarnos con los modernos sistemas de soporte que evitan que nos salgamos del carril en la carretera. En estos vehículos, una cámara recibe señales del asfalto, y una red neuronal artificial es la que decide si vamos bien o si nos vamos a salir del carril (corrigiendo en tal caso la trayectoria moviendo automáticamente el volante). Los ejemplos son ya en realidad innumerables.

La ley de Moore y la actual explosión de avances en inteligencia artificial.

Teóricamente hace ya varias décadas que se conoce el poder de la red neuronal artificial, pero hasta hace bien poco no se dispuso del Hardware necesario para dar soporte práctico a dicho potencial de simulación. Pero esto está cambiando gracias a la ley de Moore y al exponencial aumento de potencial de cálculo disponible cada año (la ley de Moore original se refería a la duplicación en el tiempo del número de transistores pero hoy en día muchos la entienden ya simplemente como la duplicación en la potencia disponible). Cada año el potencial de cálculo al alcance de los investigadores casi se duplica, y precisamente ahora estamos alcanzando el umbral que permite esta explotación práctica artificial del poder biológico oculto en las redes neuronales. Hoy en día por ejemplo, un dispositivo móvil puede poseer más capacidad de cómputo que algunos supercomputadores de hace 15 años.

Y es que, como ya dijimos al principio, el gigantesco avance en IA de estos últimos 5 años no se deben tanto a los avances teóricos sino a los avances en el hardware. Esto significa que el limitante no ha sido nunca la base teórica (bien establecida desde hace muchos años), sino la ineficacia de nuestras máquinas a la hora de poder simular con la fidelidad suficiente la base natural biológica que da forma a nuestras habilidades mentales.

Al mismo tiempo este hecho supone que los logros que conseguiremos en años venideros seguirán creciendo a cada vez mejor ritmo conforme la ley de Moore (entendida o reformulada como la duplicidad en la capacidad de cómputo disponible cada poco tiempo) siga mejorando exponencialmente nuestra potencia de cálculo. Las tarjetas TPU de segunda generación Google son el doble de potentes que las de primera generación (un avance que ha necesitado de menos de un año), y nada impide que en 5 años tengamos un hardware tan potente que haga palidecer a nuestros desarrollos actuales.

Conclusión.

Si Google DeepMind ha necesitado esperar a la aparición de las TPU de 2ª generación para lograr el gran hito que ha supuesto AlphaZero, nada parece indicar que el ritmo de logros importantes y transcendentales en el mundo de la inteligencia artificial no continúe su curso conforme nuevo y más avanzado hardware llegue a manos de los investigadores en las ciencias de la computación.

En última instancia, es perfectamente viable (e incluso probable), que conforme el poder de computación avance así ocurra con nuestra habilidad para simular e imitar nuestra propia red neuronal biológica hasta el punto de que finalmente el proceso acabe convergiendo en una inteligencia artificial general e incluso consciente (poseyendo nuestra misma subjetividad). Valga recalcar el hecho de que no existe ninguna evidencia física teórica o experimental capaz de negar formalmente la posibilidad de esta convergencia.

Bien parece que en el fondo el "Hard problem" de la consciencia se reduce simplemente a una limitación temporal de potencia. Así pues no desesperemos y estemos atento a que los avances tecnológicos nos sigan ofreciendo cada año el doble de potencia. De eso parece que se trata todo, de ¡mas madera!