jueves, 28 de mayo de 2015

Estudio sobre la posible ilusión del libre albedrío (en su concepción más débil)


Este mes que termina es el cumpleaños de mi blog. Lo inauguré allá por el 2010 como un modo en que poder expresar por escrito mis ideas e inquietudes. No tenía ni idea por aquel entonces de que conseguiría tantos seguidores, ni mucho menos que llegaría a 30000 visitas. Además, estoy muy orgulloso de saber que gran parte de estas personas que siguen el blog son (sois) gente de alto nivel cultural (es fácil hacer un blog sobre fútbol o sobre coches con miles de visitas, pero creo que es meritorio conseguir que un blog de temas filosóficos y científicos sea seguido por tanta gente).

En fin, no me enrollo más. Gracias por vuestra fidelidad :).

Voy a compartir con vosotros a continuación, a modo de celebración :P, un nuevo y extenso (pero, creo, interesante) artículo, sobre el libre albedrío. Espero que os guste:

Introducción.
"Todos creen a priori en que son perfectamente libres, aún en sus acciones individuales, y piensan que a cada instante pueden comenzar otro capítulo de su vida... Pero a posteriori, por la experiencia, se dan cuenta —a su asombro— de que no son libres, sino sujetos a la necesidad; su conducta no cambia a pesar de todas las resoluciones y reflexiones que puedan llegar a tener. Desde el principio de sus vidas al final de ellas, deben soportar el mismo carácter..." (Arthur Schopenhauer)

Hace ya tiempo, en este artículo traté sobre una posible reducción al absurdo de la idea del libre albedrío clásica. He debatido bastante sobre el tema desde entonces, y la principal pega que se pone a mi argumentación se debe al concepto duro (o extremo) que usé del libre albedrío.

Para muchas personas, el libre albedrío se puede corresponder con una definición más débil que la que yo he usado en mi artículo, una concepción en donde sólo vale con que exista libertad de decisión entre un conjunto acotado de posibilidades. Es decir, que al poder elegir sin trabas de entre un limitado conjunto de alternativas, previamente seleccionadas de un modo involuntario e inconsciente por un heurístico evolutivo, lo siguen llamando libre albedrío; o le ponen otro nombre a la cosa, aunque lo siguen relacionando filosóficamente con las consecuencias que el libre albedrío clásico (su concepción fuerte) otorga al hombre con respecto a su ego (hay mucha resistencia a aceptar la falta de libre albedrío, y cada cual se agarra a donde puede para no resignarse).

Pues bien, vamos a intentar estudiar en detalle esta otra concepción débil del libre albedrío, a ver qué conseguimos:

Voy a partir de un principio bien estudiado y bien contrastado, aunque aún no sea tan ampliamente aceptado en la comunidad como seguro lo será en unos años:

1. La mente humana surge gracias a una complejísima computación neuronal ocurrida en el cerebro. Y hablo de computación, porque según la neurociencia moderna, el cerebro no sería más que un sistema encargado del procesamiento automático de la información. Automático, porque el proceso ocurre espontánea y mecánicamente, y procesador de la información, porque su función sería la de convertir (procesar) una entrada sensitiva de información (sentidos) en una salida o transmisión de resultados al exterior: TODA su conducta (incluyendo el resto del cuerpo -ritmo de los latidos del corazón, de la respiración, etc.- y el mundo externo al propio cuerpo -lenguaje, movimientos, etc.-).

Es, sin duda muy complejo el modo en que se obtiene la información por los sentidos, y el modo en que se realiza el procesado de dicha información, y por supuesto el modo en que se transmite. Además, sin duda, hay mucha retroalimentación entre estos tres elementos, y la complejidad se eleva so manera; sin embargo, lo fundamental que yo quiero proponer en (1), es que la mente surge (o puede ser que surja) mediante un procesado automático de información, lo que hace que se pueda hablar de que la mente es consecuencia del equivalente de una mera computación (neuronal en este caso).

Cualquiera que niegue este punto (1) no debería seguir leyendo, puesto que es evidente que va a negar la mayor de mi argumentación, y sólo va a perder el tiempo; puesto que pretendo deducir, a partir de (1) y de nuestro conocimiento sobre la computación y el tratamiento físico de la información, una conclusión mediante reducción al absurdo. Sin embargo, no le quepa duda al lector que la negación del punto (1) trae consigo muchos problemas (y grandes alternativas que proponer), y que dicha negación entra en contradicción con gran parte del estudio neuricientífico actual. Pero eso ya es problema del negacionista ;).

Bien. Vamos a suponer que todo el que sigue leyendo estas líneas está de acuerdo en (1), y veamos qué podemos concluir a partir de nuestros conocimientos científicos sobre el mundo:

Para facilitar la argumentación (pero sin perder precisión), vamos a considerar el caso más sencillo posible para estudiar esa hipotética libertad de decisión acotada a un grado de libertad finito (libre albedrío en su concepción débil):

2. Vamos a considerar en concreto, la posibilidad o no de una libre elección indeterminada en un entorno con sólo dos grados de libertad: es decir; elegir entre dos alternativas concretas A o B, blanco o negro, 0 ó 1, etc. 

Hay que destacar primero, que vamos a analizar en nuestro estudio, alternativas equivalentes en cuanto a valor o peso. En nuestro argumento, ninguna alternativa se va a ver condicionada por ningún tipo de valor añadido sobre la otra. Porque si, por ejemplo, A tiene mayor peso que B, habrá un sesgo en la probabilidad de que sea A la seleccionada, y por lo tanto no habrá una verdadera libertad de elección puesto que ese peso determina (aunque sea probabilísticamente) el resultado final. Por lo tanto:

3. Ambas alternativas A y B, serán equiprobables, lo que no hace más que señalar la necesidad de una indeterminación en la elección final del individuo de modo que podamos hablar de verdadera libertad. Si un individuo es realmente libre de elegir entre A y B, no estará condicionado ni siquiera parcialmente a elegir una alternativa sobre la otra, por lo que la probabilidad a priori de que seleccione cualquier opción será en principio del 50% (1/2).

Este punto (3) se ve incluso más claro mirado al revés: si entre dos alterativas A y B, hay un condicionamiento sobre el individuo, habrá una probabilidad (una especie de "determinaciónprobabilística) a favor de una de las opciones, por lo que la decisión final NO será jamás verdaderamente libre (indeterminada).

Este es, precisamente, un argumento que se suele tomar prestado de la psicología evolucionista en contra de cualquier tipo de libertad de decisión en el hombre (ni débil ni fuerte):  la evolución condiciona en gran medida gran parte (por no decir, toda) nuestras tomas de decisiones, con lo que la libertad brillaría por su ausencia. Ocurriría esa "determinación" probabilística de la que hablo en casi todas nuestras elecciones; sesgo que iría desde algo apenas medible (50,0...1%, a un sesgo de casi el 100%, como ocurre cuando directamente no tenemos casi libertad de decisión en ciertos casos: por ejemplo, cuando intentamos comer excrementos, mantener relaciones de incesto, etc.: sencillamente NO podemos).

Pero no voy a atacar por este camino la idea de libre decisión acotada. Mi idea es aceptar que (3) es posible y comprobar si dicha asunción se reduce a un absurdo:

Sigamos. Una verdadera libertad indeterminada, requiere de un proceso capaz de elegir entre dos opciones de un modo incondicionado, lo que significa que el proceso podrá elegir entra A y B con una probabilidad igual a 1/2 (50%). Tenemos así la entrada {elige entre A y B}, el proceso de selección {ten en cuenta la entrada y elige de un modo indeterminado entra A y B  -con una probabilidad del 50% entre ambas-}, y una salida {comunicación o transmisión de la decisión final}.

Centrémonos en el proceso de selección:

Debe ser un proceso indeterminado, en el sentido de que a priori debe haber un desconocimiento absoluto sobre el resultado final de la decisión. Ese desconocimiento absoluto, matemáticamente se relaciona (en nuestro caso con un agrado de libertad igual a 2) con el concepto de una probabilidad en el resultado de 1/2. Esta relación matemática que hago, se basa en el conocido principio de indiferencia (o principio de razón insuficiente).

Queda ya claro, que el proceso de toma de decisión (o proceso de selección) debe poder decidir equitativamente entre nuestras dos selecciones pero, ¿cómo puede llevarse esto a cabo?:

Este es un problema clásico en ciencias de la computación, que nos acompaña desde el inicio de esta rama del saber. Bien pronto surgió en el terreno de la computación, el problema de cómo hacer para realizar selecciones probabilistas entre diversas opciones. Por poner un pequeño ejemplo (de entre miles):

Los programadores de videojuegos, es normal que requieran de funciones capaces de generar elementos en el escenario que dependan de un rango de probabilidad. Por ejemplo, en un juego de puzzles tipo Tetris, habrá que determinar de qué tipo es la siguiente pieza que se le ofrecerá al usuario una vez ya ha salido la anterior (si es la alargada, la cuadrada, etc.). Imagina que te piden que programes un Tetris, y te ves en la encrucijada de generar un algoritmo que tenga como salida la pieza que se le mostrará al usuario (y que caerá de arriba hacia abajo) de entre 5 posibles tipos de pieza. ¿Cómo te las ingeniarías para que el algoritmo devuelva una pieza de entre las 5 posibles, con una probabilidad de 1/5?

En pseudocódigo, la cuestión queda más o menos como sigue:

Inicio_programa: Tetris
...
Pieza pieza_a_mostrar;
pieza_a_mostrar = obtener_pieza();
pieza_a_mostrar.mostrar();
...

fin_programa

función obtener_pieza()
   Pieza pieza_a_devolver;
  (¿?)
   devolver pieza_a_devolver;
fin_funcion 

Cómo rellenar el hueco (¿?) es la cuestión. ¿Cómo programar el equivalente a elegir una pieza de entre 5 de un modo equiprobable? ¿Cómo diseñar un método  capaz de hacer tal cosa? Pues la única solución hasta la fecha consiste en el uso de hacer uso de un generador de números aleatorios.

En concreto, para el caso que nos ocupa, se puede generar un número aleatorio, por ejemplo; en el rango ente el 1 y el 100, y posteriormente, y seleccionar una pieza a partir del resultado de éste número aleatorio. Por ejemplo, podemos dividir el rango [1-100] en 5 partes, y asignar a cada parte una pieza. En pseudocódigo, sería algo parecido a:

función obtener_pieza()
   Pieza pieza_a_devolver;
   Numero n = Generar_num_aleatorio(1,100) ;
   si n <=  20 entonces
          pieza_a_devolver.es(Pieza.LARGA);
  si_no si n <= 40 entonces
         pieza_a_devolver.es(Pieza.CUADRADA);
  si_no si n <= 60 entonces
         pieza_a_devolver.es(Pieza.CURVA);
  si_no si n <= 80 entonces
         pieza_a_devolver.es(Pieza.CURVA_2);
  si_no si n <= 100 entonces
         pieza_a_devolver.es(Pieza.CURVA_3);
  devolver pieza_a_devolver;
fin_funcion 

Sin embargo, aunque parezca que el asunto ya está resuelto; no es así. Aún tenemos que desarrollar esa función capaz de generar y devolver el número aleatorio...y aquí es donde empiezan los problemas de verdad. No hay, hasta la fecha, un método capaz de generar un número aleatorio de un modo totalmente eficiente, y lo único que se consiguen son aproximaciones, con lo que se suelen llamar generadores de números psuedoaleatorios (aquí tenéis un buen documento, donde se explica bien el problema, y también las aproximaciones paseudoaleatorias conseguidas).

No hay modo de simular computacionalmente la generación de un número realmente aleatorio. Siempre se termina con un proceso periódico, donde los procesos tienen en general los siguientes problemas:

Cualquier sistema de procesamiento de información, tiene obligatoriamente, una estructura física, la cual condiciona el sistema a un conjunto muy determinado de estados físicos posibles. Por lo tanto, debido a que los estados físicos del sistema son finitos, y a que las reglas o pasos realizados en el procedimiento son finitos, ocurren siempre los siguientes problemas que impiden la generación de verdaderos generadores aleatorios: periodicidad, autocorrelación, aparición de diversos patrones,  sesgos en la media y la varianza, y resultados discretos (donde algunos números del rango nunca llegarán a darse).

El problema de fondo, sin lugar a duda, es equivalente al problema original del que partíamos: es decir; que nos volvemos a encontrar con la disyuntiva original de cómo podría un sistema automático de procesamiento de información, decidir libremente y con equidad ante varias alternativas.

Tenemos así un primer corolario importante:

4. Al no ser posible, mediante técnicas de computación, generar un número realmente aleatorio; podemos concluir que cualquier intento de crear un proceso automático de decisión realmente libre es imposible. Siempre va a haber una "determinaciónprobabilística que hará imposible la indeterminación requerida para que exista plena libertad de decisión entre dos alternativas.

Por otra parte, la mente humana hemos aceptado en (1) que se reduce a un complejo proceso físico de computación neuronal: ¿se podrá trasladar el corolario (4)  al caso del hombre?:

Imaginemos un experimento, en el que el investigador llega y nos pide simplemente que elijamos un color entre el rojo y el verde. Ese es todo el experimento, no habrá recompensas ni ningún resultado. Sólo se trata de elegir entre rojo (A) o verde (B).

Piense que está en esa situación: piense un color entre el rojo y el verde y dígalo en voz alta. Parece que, decidamos lo que decidamos, la elección parece ser realmente libre. Si dijo rojo, pudo haber dicho verde, y viceversa; y la probabilidad de su elección, a priori, parece ser de 1/2. Ni el investigador y ni siquiera usted mismo, sabía en principio, qué color iba a pronunciar. De ser este el caso, la decisión habría sido libre pero: ¿cómo puede la red neuronal de nuestro cerebro conseguir esa indeterminación siendo, como es, un sistema con una estructura física finita junto con el estado físico que ésta determina?

En el proceso, el ojo y el oído de la persona tomaría la información exterior. Esa información pasaría, mediante impulsos eléctricos, al cerebro y éste se dedicaría a procesar el problema: elegir entre rojo y verde (A y B). Si de verdad se procesa una libre decisión, en algún punto de la red neuronal debe ocurrir el equivalente de elegir un número realmente aleatorio (y no solo pseudoaleatorio) que permita formar la salida: "elijo rojo", en lugar de "elijo verde".

Pero es absurdo que un sistema de procesado de información pueda, mediante un conjunto finito de estados, generar un procedimiento capaz de conseguir hacer colapsar de manera independiente una distribución continua y uniforme de valores.

Origen del problema sobre la imposibilidad de conseguir una elección equitativa.

Intentemos profundizar en el origen de ese problema que nos impide idear un método de selección equitativa. ¿Podría residir el problema en la limitación de estados finitos del sistema o la estructura que debe tomar la decisión?  Es más, podemos preguntarnos incluso sobre si es posible generar una propuesta verdaderamente indeterminada y equitativa (condiciones a priori de una libre elección) en un sistema físico cualquiera.

Olvidemos por un momento la computación neuronal y los sistemas automatizados de procesamiento de información; vayamos a nuestro mundo cotidiano: ¿es posible generar aleatoriedad mediante algún procedimiento o método a nuestro alcance?

Si entramos en detalle, veremos que no es posible conseguir tal cosa en nuestro mundo mesoscópico. Si lanzamos un dado, el resultado estará determinado por las condiciones iniciales del lanzamiento, siendo un proceso determinista. En el caso del dado, tenemos un caso similar al computacional ya comentado, de generación pseudoaleatoria. La teoría del caos  imposibilita en la práctica (con nuestra tecnología actual) determinar el resultado del dado, pero NO hay, sin embargo, ninguna imposibilidad teórica que lo prohíba. 

Y el hecho, es que cualquier otra alternativa mecánica caerá en el mismo saco: es siempre posible, en teoría, determinar el resultado, por lo que  la generación no es indeterminada ni, por lo tanto, será equitativa la elección que se haga a partir de dicho resultado determinista.  Y no es equitativa, porque esas mismas condiciones físicas iniciales, van a determinar siempre el resultado, y; aunque el resultado parezca aleatorio, en realidad, habrá sido sesgado desde el inicio del lanzamiento por innumerables factores: como la fuerza inicial, el ángulo de giro, la aceleración inicial, la resistencia del aire, etc., etc. Conocidos esos factores, y con las herramientas matemáticas adecuadas, se podría, siempre en teoría, adivinar el resultado.

El hecho de que las condiciones físicas determinen cualquier generación de aleatoriedad, implican que, antes las mismas condiciones, el resultado será el mismo, y que; si se pudiesen llegar a conocer las mismas, se podría determinar a priori el resultado (y la decisión).

Seguro, que muchos habréis pensado en la mecánica cuántica como un posible método de aleatoriedad, basado en su indeterminación teórica. Pero mucho me temo que no nos vale como solución. La indeterminación en mecánica cuántica, se corresponde con una "determinación" probabilística. Aún en el caso de usar la mecánica cuántica, ¡no logramos una completa indeterminación (lo cual equivaldría a una completa desinformación o desconocimiento del resultado)! sino que nos debemos contentar con una distribución de probabilidades en el estudio del fenómeno. 

Pongamos el caso ideal, equivalente a un lanzamiento de dados cuánticos. Como el resultado se rige por la MC, no podemos determinar (ni siquiera en teoría) el resultado a partir de nuestra información en las condiciones iniciales, ¡pero aún así seguimos teniendo información sobre el resultado final! ¡no logramos la indeterminación necesaria para poder decidir equitativamente! Con las herramientas matemáticas adecuadas, la MC realmente nos permiten determinar la distribución de probabilidad de que el dado cuántico caiga de una manera o de otra a partir de las condiciones iniciales.

Pero, hay, sin embargo, un modo de eliminar teóricamente este sesgo del que hablo. Sería, el caso equivalente a lanzar una moneda cuántica (en lugar de un dado cuántico). Es más, ya hay incluso propuestas para chips que usarían la MC para generar aleatoriedad realmente indeterminada

Pero aún no está todo ganado:

Imaginemos por ejemplo, un chip como el propuesto por la Universidad de Stanford. Lo instalamos en un computador tradicional, y conseguimos, mediantes llamadas a este hardware, un número aleatorio imposible de determinar a priori según las limitaciones teóricas de la MC.

Pero ahora nos encontramos con un problema: para que el chip funcione en la práctica, debe ocurrir la decoherencia cuántica (el colapso de la función de probabilidades del evento, que es de 1/2 para cada resultado posible). Para que el chip ande, y devuelva (0 ó 1), hay que hacer una medición sobre el sistema cuántico, pero, ¿quién medirá? ¿y cómo lo hará para que colapse la función de onda?

Para que la función de onda funcione, y el chip pueda devolver un resultado, se necesita la interacción con un sistema macroscópico. Si, por ejemplo, usamos nuestro ordenador clásico, con el chip cuántico embebido, y programamos un sistema capaz de decidir entre A y B (o rojo y verde), llegará un punto en que el sistema clásico tendrá que "activar" el chip cuántico mediante una señal eléctrica, por ejemplo, y trabajar luego con el resultado indeterminado obtenido (A ó B).

Esto pone de evidencia, que aún se requiere de un sistema clásico determinado que haga la medición indeterminada, para poder elegir posteriormente con equidad o libertad entre las alternativas; y será ese entorno clásico el que finalmente vuelva a introducir el problema de cómo decidir. Entramos en un círculo vicioso:

Hay que interpretar el resultado,  para poner en consonancia cada posible valor del dominio de la función indeterminada, con cada posibilidad de entre las que podemos elegir: 0 -> rojo, 1->verde, por ejemplo. Si, por ejemplo, nuestro ordenador va a transmitir el resultado de su elección mediante una imagen en el monitor, deberá en algún momento, comparar macroscópicamente el valor cuántico obtenido, con su equivalente previamente decidido: habrá que elegir una regla determinada que diga que, si el valor aleatorio es 0 muestre una imagen verde, y en caso contrario una roja.

En otras palabras, aunque podamos conseguir un número verdaderamente aleatorio mediante la MC, la necesidad de que un sistema macroscópico determine cuando tomar la medida, y cómo interpretar el resultado, harán que la decisión no sea finalmente libre: ¿por qué relacionar el valor 0 con el resultado verde, y no con el rojo? ¿cómo se toma esa decisión desde la parte clásica del sistema? ¿Usamos otra medida del chip cuántico de modo que si da 0 se corresponda con que en la siguiente medida del chip, el 0 se corresponda con el rojo y el 1 con el verde, y si da 1 sea al contrario? Pero es evidente que hemos entrado en una regresión infinita, porque ahora habrá que decidir por qué si la primera medida cuántica da 0 se corresponde con que si la segunda da 0 será rojo, y no viceversa.

No hay escapatoria: usar la MC no puede ayudarnos con nuestro problema, porque sus resultados requieren de un sistema clásico que mida e interprete (decida una relación en) el resultado. Una verdadera solución, requeriría de un sistema capaz de generar un estado indeterminado, pero que funcionase exclusivamente en la escala macroscópica donde se toman las decisiones que nos interesan.

El problema cuántico.

No nos engañemos: es cierto que mi argumento anterior puede parecer débil, sobretodo cuando la MC es la esperanza por antonomasia de aquellos que pretenden la indeterminación de nuestros actos; pero no lo es, no es débil en absoluto. Vamos a estudiarlo aún con un poco más en detalles:

Vamos a estudiar el ejemplo más simple imaginable:

Imaginemos que los chicos de la Universidad de Stanford terminan su chip cuántico, y lo introducimos en un microcontrolador clásico. Para más claridad, vamos a imaginar un microcontrolador a medida. Es decir; vamos a programar el circuito mediante hardware, de manera que si el chip cántico devuelve un nivel de alta energía (un bit igual a 1) automáticamente se transmita esa señal (mediante el bus) con lo que a su vez se pondrá a 1 un bit determinado del puerto de salida mediante un filamento; puerto que se conecta a su vez con un LED luminoso rojo. Si el chip cuántico se activa, pero devuelve un nivel de baja energía (bit a 0), esa salida establecerá a 0 (baja energía) el mismo bit del puerto de salida del microcontrolador, con lo que el LED luminoso no encenderá (o se apagará si estaba previamente encendido); y eso se podría corresponder con la opción color verde.

Parece que un sistema así diseñado tendría equidad de decisión (requisito necesario para poder hablar de libertad), pero hay un problema muy claro: ¡Se ha determinado previamente qué es un bit 0 y qué es un bit 1! ¡y se ha construido el circuito realmente a priori, decidiendo de antemano cómo se va a comportar el sistema ante esos resultado de 0 ó 1! Qué es un bit 0 ó 1 es una convención o elección previa. Normalmente se toma como bit 1, un nivel de energía igual o mayor a 0,5 vóltios, y como bit 0 el resto de valores. Cualquier procedimiento que ocurra con este sistema estará determinado a esa elección previa: un umbral mayor a 0,5 voltios haría encender la luz menos veces, y un umbral menor haría que la luz encendiera más veces; hay un sesgo debido a nuestras elecciones sobre la construcción del sistema.

Podría pensarse que el problema que comento estuviera relacionado simplemente con el procesamiento digital que implican estos ejemplos. Pero veremos que en el caso analógico, ocurre lo mismo:

Preparemos el siguiente experimento, se lanza un fotón, contra un espejo semirreflectante donde, según la MC, el fotón traspasará el espejo, o será reflejado con una probabilidad indeterminada (es decir que, a priori, la probabilidad real es de un 1/2 para cada alternativa). Si el fotón traspasa el espejo, irá a parar contra un detector que se iluminará (rojo), y si se refleja, irá a parar a otro detector  (verde).  Ahora ya no tenemos le problema de tener que interpretar valores, el color salta en un detector u otro, sin necesidad de hacer nada más pero...¿quién decide cuándo mirar en cada detector? ¿como conseguir el colapso de onda y la transmisión de esa información del color al mundo macroscópico sin caer en el determinismo? Mientras no se midan los detectores, según la MC, ambos se encuentra en un estado de superposición (encendido / apagado), pero el hecho de medir requiere de la intervención de un sistema macroscópico que rompa la superposición. Ese estado macroscópico se rige por la física clásica, y por lo tanto, aunque caótico, su estado es determinista y previsible.

Tenemos algo similar a esto:

Entrada de información determinista -> proceso cuántico indeterminado -> decisión de proceder a la medición, colapso de onda, y transmisión de la información determinista.

Conclusión.

Un libre albedrío, en su concepción más débil, requiere de libertad de decisión entre alternativas acotadas. Esa libertad, presupone que el órgano o sistema que tome la decisión, podrá, a priori seleccionar cualquiera de las opciones acotadas con igual grado de libertad; lo que supone que nada condicione su elección. Si nada condiciona su elección, la probabilidad de que decida cualquiera de las alternativas es equitativa (1/n siendo n el número de posibilidades donde elegir).

Esa equidad probabilista a priori, requiere incondicionalidad en el sistema, e indeterminación en el proceso; ya que, si la decisión que el sistema tomará está determinada, no habrá libertad de decisión, ya que la selección estará predeterminada a partir de las condiciones físicas iniciales y anteriores a que se tome la decisión, y, si existe algún condicionamiento, ocurrirá un sesgo en la probabilidad entre opciones, y el sistema tendrá una tendencia hacia alguna de las alternativas, lo que anula el concepto de libertad que hemos utilizado.

El único modo imaginable para poder conseguir la indeterminación y la incondicionalidad en un proceso de decisión, hace uso de la idea aleatoriedad. Mediante un dato aleatorio indeterminado, se podría posteriormente decidir equitativamente entre las varias opciones.

No existe, sin embargo, un método capaz de generar un verdadero número aleatorio mediante la física clásica que funciona a escala mesocópica, y lo máximo que se consiguen son funciones pseudoaleatorias, que basan su eficacia en el ruido o el uso de reglas deterministas complejas, de manera que sea muy difícil en la práctica detectar el determinismo implícito en esos procesos (la teoría dice que siempre será posible determinar o prever la serie de valores que la función pseudoaleatoria devolverá conocido el estado inicial).

Una salida prometedora, parecía ser el uso de la mecánica cuántica. Pero, aunque es cierto que se puede idear un método cuántico para obtener un valor realmente aleatorio; las peculiaridades de las leyes de la mecánica cuántica requieren que un sistema macroscópico mida e interprete ese resultado aleatorio. Sin embargo, el proceso de medir e interpretar, requiere, por su parte de una toma de decisión (¿cuándo y cómo medir?), lo que nos lleva a una regresión infinita que nunca terminaría.

No hay modo de generar un sistema aleatorio indeterminado e incondicionado, y por lo tanto, no hay modo de que se pueda seleccionar de un modo equitativo entre varias alternativas. El resultado, en mayor o menor medida, siempre va a estar determinado por las condiciones y el estado del sistema. Y si el resultado está determinado (aunque sólo sea de un modo parcial o probabilista), no hay libertad real en el proceso de decisión.

No se puede elegir con libertad entre rojo y verde, porque no hay modo de decidir con equidad e indeterminación entre ambas opciones. Por lo tanto, es absurdo suponer que el hombre posee libre albedrío; incluso si pretendemos hacer uso de hipotéticas conexiones de nuestra red neuronal con "circuitos" cuánticos. A parte de que las neurociencias parecen rechazar experimentalmente(por ahora) la hipótesis de que en nuestro cerebro ocurran procesos cuánticos relevantes.

El libre albedrío, no sería más que una ilusión surgida de la complicación (el ruido) y el caos; los cuales causarían funciones pseudoaleatorias increíblemente eficientes en su cometido. Estas funciones pseudoaleatorias, habrían sido seleccionadas evolutivamente, con el fin de otorgar al hombre de un grado de libertad nunca visto hasta nuestra aparición en el acervo génico.

Además de introducir ruido de gran calidad para producir apariencia de libre decisión, la evolución también se habría encargado de acotar las alternativas sobre las que trabajar de un modo manejable, y de un sistema de interpretación eficiente entre el ruido pseudoaleatorio y su relación con la alternativa asociada (para más información sobre el ruido externo ambiental y el ruido interno de actividad neuronal inespecífica, podéis leer este estupendo artículo).

Existen muchos estudios que apoyan todo esto que estamos tratando aquí. Por ejemplo, investigadores del Centro para la Mente y el Cerebro de la Universidad de California, en Davis, lograron predecir las decisiones de los participantes de un experimento, antes de que ellos las tomaran conscientemente mediante la medición del ruido eléctrico neuronal previo. El experimento funciona así: Los voluntarios fueron colocados frente a una pantalla y se les pidió que se concentraran en el centro de la misma. Cuando aparecía en la pantalla siempre el mismo símbolo, los sujetos tenían que tomar la decisión de si mirar a la derecha o a la izquierda, e informar a los investigadores de su decisión. Mientras tanto, los investigadores registraban la actividad de ruido eléctrico cerebral de los participantes. El símbolo aparecía a intervalos aleatorios, así que los participantes no podrían prepararse. La cuestión es que, tal como comentó Jesse Bengson, uno de los autores del estudio: "El estado del cerebro (ruido eléctrico) justo antes de la aparición del símbolo determina si va a mirar a la derecha o a la izquierda". Este estudio ha sido publicado en la revista Journal of Cognitive Neuroscience.


El sistema ideado por la evolución es tan fino, que consigue aumentar o disminuir el grado de libertad concedido a la conciencia según sea el objetivo de la decisión que se vaya a tomar: para decisiones fuertemente relacionadas con las necesidades evolutivas, el grado de libertad es casi nulo, estando la decisión casi determinada con certeza: por ejemplo, cuando nos vemos (casi) imposibilitados para comer excrementos, para mantener relaciones sexuales con un pariente cercano, o para dejar de respirar: otras veces, la decisión es tan carente de sentido evolutivo directo, que se deja al ruido eléctrico actuar libremente, tomando la decisión una ilusoria equidad ideal; como cuando se pregunta a una persona que elija entre el color rojo y el verde, si la elección no tiene efectos positivos o negativos para ella.

En los casos en los que hay un fuerte condicionamiento (como en el caso del incesto), es fácil prever la decisión de la persona, que estará fuertemente sesgada, mientras que cuando la decisión es irrelevante, simplemente habrá que estudiar el estado de ruido cerebral previo a la decisión para poder determinar la decisión pseudoaleatorio del individuo (como en el experimento anteriormente descrito de la Universidad de California). Pero la clave es que, en ningún caso se puede hablar de verdadera libertad; porque, en el primer caso, el condicionamiento evolutivo dicta por completo la decisión del hombre, que por lo tanto no es libre (no hay equidad de acción), y en el segundo caso, las condiciones iniciales del ruido que genera el proceso psuedoaleatorio del cerebro determina igualmente su decisión.

Por lo tanto, tal y como nos planteamos al inicio, aceptar la premisa (1), conduce directamente a que proponer (3) como cierta nos lleve a un absurdo. Recordemos el punto (3):
3. Ante una decisión del tipo A ó B, ambas alternativas serán equiprobables, lo que no hace más que señalar la necesidad de una indeterminación en la elección final del individuo, de modo que podamos hablar de verdadera libertad. Si un individuo es realmente libre de elegir entre A y B, no estará condicionado (ni siquiera parcialmente) a elegir una alternativa sobre la otra, por lo que la probabilidad a priori de que seleccione cualquier opción será en principio del 50% (1/2).
Hemos visto que esta supuesta libertad es absurda, en tanto que no es posible imaginar modo alguno en que conseguir un proceso físico macroscópico totalmente indeterminado. La evolución, por tanto, jamás pudo conseguir tal cosa con nosotros, puesto que parece algo prohibido ya desde un punto de vista teórico. No hay libre albedrío entendido al estilo religioso, y tampoco es posible ese libre albedrío teorizado en una concepción más débil (para salir al paso).

No nos dejemos engañar; no somos en absoluto libres, porque la libertad en nuestro mundo, es imposible.

martes, 26 de mayo de 2015

El eterno retorno


Cuando voy todos los días al gimnasio, intento aprovechar el tiempo para hacer algo más que http://audiobookbay.co/ (hay miles de libros narrados para poder oír en el trabajo, durante viajes en el coche, etc.).
ejercicio. En concreto, me pongo los auriculares y escucho audiobooks que me descargo de esta web que os recomiendo:

Esta semana estoy oyendo el audiolibro: The Universe: Leading Scientists Explore the Origin, Mysteries, and Future of the Cosmos., editado por John Brockman (enlace directo al libro aquí).

En este libro, varios físicos de renombre (Brian Greene, Walter Isaacson, etc.)  explican nuevas hipótesis que están surgiendo en el terreno de la Cosmología (algunas no tan nuevas, desde luego xDD). Lo interesante del libro es que se repite en varios de estos científicos la propuesta de los eones (propuesta compartida también por el físico Roger Penrose, por ejemplo). Lo que esta idea viene a decir, a grosso modo, es que el Universo sufre sucesivas fases de expansión y contracción (inicio y fin), y que durante cada eón (cada fase), las propiedades físicas del mundo van siendo diferentes. Este proceso se repetiría por toda la eternidad, no habiendo siquiera un principio o inicio para el Universo en sí. Por otra parte, sólo en aquellas fases en las que la física es favorable pueden aparecer seres conscientes como nosotros (principio antrópico).

Sin embargo, lo que más me ha llamado la atención de estas propuestas (además del hecho de que encajan tan bien con los hechos empíricos y con la física establecida, como el modelo del Big Bang más el proceso inflacionario), es que si esta hipótesis fuese cierta ¡aseguraría el concepto de eterno retorno!:

En un Universo eterno pero distinto en cada eón, todo lo dinámicamente posible sucederá con certeza, y no sólo sucederá una vez, ¡¡sino infinitas veces!! Es decir; que cualquier fenómeno compatible con el conjunto de leyes potenciales para estos eones va a acontecer sin duda; y además, dado lo eterno del proceso, todo fenómeno ocurrirá una, y otra, y otra vez, así disten billones de eones entre una ocurrencia y la siguiente: la cuestión es que todo se repetirá un número infinito de veces (de hecho, esa eternidad propuesta garantiza que cada eón en sí mismo -las propiedades físicas del eón, mejor dicho-  se repetirán un número infinito de veces en diferentes momentos).

Sin duda, todo esto significa que si esta propuesta cosmológica es cierta, nuestro ser y nuestra existencia ocurrirán una y otra vez; a veces con pequeñas variaciones y otra veces de un modo literalmente idéntico. Nuestra vida estaría condenada así a repetirse un número infinito de veces durante los eternos eones. ¿Quién dice que no sea consecuencia de esto la sensación de Déjà vu que tantas veces experimentamos :P?

Un saludo.

viernes, 22 de mayo de 2015

El récord energético del LHC


El Gran Colisionador de Hadrones (LHC) del CERN en Ginebra lo ha vuelto a hacer. Tras el descubrimiento del bosón de Higgs en el 2012 (usando energías de 8 TeV), ayer 21 de Mayo, ha logrado otro hito para la humanidad: produjo choques de haces de hadrones que alcanzaron una energía de 13 TeV, muy cerca de los 14 que fija el límite de su diseño.

Estos 13 TeV constituyen un nuevo récord histórico, ya que suponen la mayor energía experimental alcanzada por el ser humano hasta la fecha. La comunidad científica espera con emoción que, gracias a este nivel de energía alcanzado, aparezcan desde ahora hasta el 2018 (fecha estimada del fin de esta segunda etapa de estudio en el LHC), nuevos y desconocidos fenómenos que den las pistas necesarias que apoyen un avance firme para una física atorada desde hace décadas.

¿Qué suponen esos 13 TeV?

Sin entrar en mucho detalle, decir que el electronvoltio (eV), es una medida de energía que representa el cambio energético que experimenta un electrón al pasar de un punto de potencial Vi a otro punto de potencial Vf, cuando Vf - Vi = 1V (1 Voltio). Esta energía equivale a 1,602176462 × 10^-19 J (Julios).

Por otro lado: 1 TeV = 10^3 GeV = 10^12 eV

Es decir, que 13 Tev = 13x10^12 eV, que es lo mismo que 13.000.000.000.000 eV = 2,082×10^-6 Julios = 0,0000002082 Julios (para poner en perspectiva, decir que una bombilla de 60W consume 60 Julios por segundo).

Para lograr esos haces de hadrones capaces de producir 0,0000002082 Julios al colisionar, el funcionamiento diario  del LHC exige cada año la bonita cifra de 800.000 megawatios hora (MWh), lo que a precios de la electricidad en Suiza supone un coste anual de 19 millones de euros. Este consumo supone el mismo consumo de una ciudad pequeña (aproximadamente el 10 % de lo que consume la ciudad de Ginebra).

Si te preguntas por qué invertir 800.000 megawatios para producir 0,0000002082 Julios, indicar a grosso modo, que a partir de la ley de la conservación de la energía, y del hecho de que la energía se puede convertir en masa, que con esos 0,0000002082 Julios, se pueden crear partículas muy masivas que con energías menores sería estadísticamente inviable (el bosón de Higgs, por ejemplo, es una partícula tan masiva, que hasta que no se logró los 8 TeV no pudo ser recreada en el laboratorio con una probabilidad viable).

El futuro de la física está en juego.

Si ningún nuevo fenómeno (sea del tipo que sea) fuese hallado en esta segunda etapa de estudio experimental en el CERN (que hemos visto que durará hasta el 2018), eso supondría un importante mazazo (¿definitivo?) para el avance científico en física. Y es que, de no encontrarse nada imprevisto en estos choques a 13 TeV (casi la máxima energía asequible en el LHC), la enorme financiación necesaria para construir un nuevo acelerador de partículas con mayor capacidad energética sería casi imposible de lograr.

El coste estimado del proyecto del CERN en su conjunto es de 6500 millones de euros. El desglose es el siguiente:


El gasto que un proyecto capaz de superar los 14 TeV (límite teórico para LHC según su diseño), sería aún mucho mayor. Y es que, para que otro astronómico presupuesto del tipo del LHC sea aceptado (en realidad sería un presupuesto mucho mayor en recursos y también en tiempo), es necesario que en el CERN descubra algo insólito, algo que suponga un indicio de que un nuevo acelerador más potente arrojaría con cierta probabilidad algún tipo de resultado. Porque si el LHC no encuentra nada a 13 TeV, quedará la duda de si llegar, por ejemplo, a 20 TeV (tras otros miles de millones de euros) servirá para algo.

¿Qué otras cosas se podrían haber hecho con el coste del LHC?

Para comprender para qué dan los 6500 millones de € que ha costado todo este proyecto, veamos la siguiente tabla con el coste de otras estructuras y diseños (precios en francos suizos, euros y dólares):

Transbordador espacial
Endeavour (NASA)
1900 M1300 M1700 M
Telescopio Espacial Hubble
(coste al lanzamiento – NASA/ESA)
1600 M1100 M1500 M
Portaaviones2900 M2000 M2700 M
Puente Oresund(8 km – Entre Suecia y Dinamarca)5700 M4000 M5300 M
Rascacielos Burj Khalifa(828m – Dubai)1600 M1100 M1500 M
Presupuesto Formula1
(por temporada – F1 Magazine 03)
2300 M1600 M2100 M
Equipo grade de Formula1(por temporada – F1 Magazine 03)535 M375 M500 M

En esta tabla podemos observar un hecho muy anecdótico: el extraño modo en que el ser humano prioriza el modo en que gasta los recursos naturales. Por ejemplo, la FAO, la organización de las Naciones Unidas para la agricultura y la alimentación, calcula que con el coste que supuso el LHC, junto con el coste de un par de portaaviones y otros tantos rascacielos, se podría haber erradicado literalmente el hambre en el mundo...pero sin embargo se prefieren hacer este tipo de construcciones y eventos antes que salvar la vida de millones de personas (¿?). Los juegos olímpicos de Pekin, por ejemplo, se estima que supuso un gasto de 44.000 millones de euros, y en el mundo se produce un gasto militar anual por una cantidad similar. Como poco, es algo que da que pensar.

miércoles, 20 de mayo de 2015

Radiación del cuerpo negro: parte II


En la primera parte de esta serie de artículos donde estudiamos de la radiación del cuerpo negro, llegamos a la siguiente expresión:

(5)

Para nuestro ejemplo de cuerpo negro, esto significa que la radiancia total emitida por el orificio de la cavidad (sumando el valor de todas las frecuencias posibles) a cierta temperatura T, es igual a c /4 veces la densidad de energía electromagnética total contenida en su interior (siendo c la velocidad de la luz).

En 1899, aún no se conocía la forma analítica exacta para R(v, T), pero sí se disponían de precisas medidas experimentales, realizadas por O. Lummer y E. Pringsheim, las cuales permitieron conocer la forma de dicha función (mediante su representación gráfica espectral):


Hay que recordar que esta gráfica para R(v, T), es independiente de los materiales, propiedades y forma del cuerpo negro en estudio. No importa el modo en que esté construido un cuerpo negro, siempre emitirá radiación en equilibrio del modo señalado en la gráfica anterior. También es importante observar cómo el máximo de radiación se desplaza hacia la derecha (altas frecuencias), conforme aumenta la temperatura de estudio.

Buscando las leyes de radiación del cuerpo negro.

Y así se encontraba el estudio del cuerpo negro a finales del siglo XIX. Se conocía a la perfección las leyes del electromagnetismo (gracias al trabajo de James Clerk Maxwell), pero aún no se conocían las leyes tras este comportamiento universal observado en la radiación del cuerpo negro. Y aunque puede parecer algo quizás trivial, este desconocimiento del que hablamos, suponía en aquella época uno de los pocos problemas aún no resueltos en física. De ahí que se pusiera tanto interés, ya que por aquel entonces se pensaba que la física daría explicación de todo los fenómenos en pocos años, una vez se entendiesen los pocos problemas que quedaban por resolver. No podían imaginar, que resolver este problema en concreto, abriría las puertas de una nueva física que revolucionaría el mundo.

Así pues, tras las medidas empíricas de O. Lummer y E. Pringsheim, se conocía la forma de la función R(v, T), y se conocía la relación expresada en (5), pero aún no se conocía la expresión analítica exacta de la función de radiación del cuerpo negro R(v, T), ni tampoco la expresión analítica exacta para calcular la densidad espectral de energía electromagnética p(v, T). 

En 1879, se enunció la conocida ley de Stefan-Boltzmann, la cual afirma que:


 (7)

donde a es una constate. Es decir, que la cantidad total de energía radiada por un cuerpo negro en equilibrio, aumenta con la cuarta potencia de su temperatura absoluta.

Catástrofe ultravioleta.

En la búsqueda de la expresión analítica que diera cuenta de los resultados experimentales, se pusieron en práctica todos los conocimientos de física clásica habidos hasta la fecha. Dos físicos, Rayleigh y Jeans, derivaron, por fin, una solución completa del problema, a partir de los conocimientos disponibles. No voy a detallar aquí todo el procedimiento seguido, pero es importante señalar que partieron de una base física establecida, y que por lo tanto, la expresión inferida para la función de densidad de energía debía ser correcta (puesto que se repasaron concienzudamente las matemáticas y no había errores en el proceso).

Se llegó así a la fórmula de Rayleigh-Jeans:


 (8)

Esta fórmula teorizada, realmente guardaba buen acuerdo para frecuencias bajas, sin embargo, la dependencia cuadrática con la frecuencia (v^2), predecía una cada vez mayor cantidad de energía radiada conforme aumentaba la frecuencia. Es decir, que de ser cierta la fórmula, para frecuencias altas (como los rayos X emitidos por cualquier horno o pedazo de hierro incandescente), la emisión de energía literalmente abrasaría cualquier cosa que se encontrase cerca, cosa que evidentemente no ocurre.

Esta flagrante contradicción entre lo teorizado por la física clásica, y lo observado experimentalmente, supuso lo que P. S. Ehrenfest denominó "la catástrofe ultravioleta".


Fórmula de Planck.

Fue Planck quien, en 1900, dio un paso decisivo trabajando mediante tanteo sobre los datos experimentales. En resumen, lo que hizo fue buscar mediante interpolación una fórmula analítica que aproximara los datos experimentales. Tras mucho trabajo, llego a la siguiente función semiempírica:

 (9)

donde a va a depender linealmente de la frecuencia (a = Av), siendo el valor de A ajustado a mano de modo que cuadren con los resultados experimentales. La bondad de esta ecuación (9) era extraordinaria, y cuadraban perfectamente con las medidas empíricas de O. Lummer y E. Pringsheim. Sin embargo, como hemos visto, dicha función no disponía de un soporte teórico tras ella.

Teoría de Planck del cuerpo negro.

Para conseguir una teoría que diese cuenta de su fórmula, Planck se apoyó en la interpretación estadística del concepto de entropía. A muy grosso modo, decir que Plank supuso que las paredes de la cavidad del cuerpo negro estaban formadas por un número muy grande N de osciladores armónicos que intercambian energía. A partir de ahí, aplicó el concepto de entropía para conocer el modo en que esa transferencia de energía iría transcurriendo con el tiempo, y postuló que el intercambio de energía entre los osciladores se hace en paquetes del tipo:

Et = n·e  (10)

La idea era pasar posteriormente al límite cuando e tiende a infinito, y calcular así el intercambio infinitesimal de energía entre los N osciladores. Actuando de este modo, Planck dedujo la energía promedio según la frecuencia y la temperatura de estudio:

 (11)


La cuestión fundamental, es que el paquete de energía e postulado en (10), y que se pretendía hacer tender a cero, es proporcional a v, por lo que: e = h·v, siendo h la llamada constante de Planck, cuyo valor es 6.626*10^-34. ¡¡Pero no se puede fijar la frecuencia v de estudio, y hacer tender a cero al mismo tiempo el tamaño del paquete de energía!! Por lo tanto, la energía siempre se debe transferir de un modo finito y discreto: la cuatización de la realidad física se hizo patente.

Concretamente, los valores de energía que puede poseer un oscilador armónico elemental, será:

Et = n·e = n·h·v,   n=0,1,2,... (12)

Y por último, sólo queda utilizar esa función de energía promedio E(v, T), para llegar a la deseada expresión analítica de la densidad espectral de energía del cuerpo negro:

 (13)

La física cuántica había nacido...

lunes, 18 de mayo de 2015

Radiación del cuerpo negro: parte I


Siguiendo el libro Física Cuántica, coordinado por el profesor Carlos Sánchez del Río, y preparado para los alumnos de física de la Universidad Complutense de Madrid, me he topado con un tema dedicado en exclusiva a lo que se puede decir que fue el pistoletazo de salida de la teoría cuántica: la radiación del cuerpo negro.

Esto me ha animado a realizar una serie de artículos donde voy a intentar transmitir, a mi modo y en profundidad, el estudio del cuerpo negro, el cual llevó a lo que se conoce como la catástrofe ultravioleta, y que supuso un inicio inesperado para la cuantificación en física. Y aunque serán artículos de divulgación, no dejaré de lado las matemáticas como suele ser habitual. No hay que tener miedo: las matemáticas no son más que un lenguaje humano más, y cualquier dificultad que nos podamos encontrar, no será muy diferente de aquellas que se pueda tener al aprender un nuevo idioma: es cuestión de aprender el significado de los símbolos y las reglas asociadas.

Radiación térmica.

Para comprender cómo la llamada radiación del cuerpo negro llevó a la teoría cuántica, primero es necesario saber qué es la radiación, y posteriormente entender qué se entiende por radiación del cuerpo negro.

Imagina que te encuentras en una habitación cerrada a oscuras. No entra luz por ninguna parte y sólo hay oscuridad. Si de repente comienzas a calentar, por ejemplo, un trozo de hierro en esa habitación oscuras, verás como el hierro empieza a brillar y a alumbrar (por ejemplo, como cuando enciendes una estufa). Esa luz (ondas electromagnéticas) que emana del hierro caliente, es radiación térmica.

Por lo tanto, observamos empíricamente que, siempre que se calienta cualquier material sólido, dicho material comienza a irradiar ondas electromagnéticas en todas direcciones. Y aunque sólo vemos esas ondas electromagnéticas radiadas cuando dichas ondas poseen una frecuencia dentro del rango del espectro visible del el ojo humano (incandescencia), en realidad todos los cuerpos se encuentran continuamente emitiendo ondas (la mayor parte de la radiación emitida por un cuerpo resulta invisible para nosotros).

Por lo tanto, en la habitación a oscuras imaginada anteriormente, veremos el hierro cuando la temperatura del mismo lo lleven a irradiar en una frecuencia dentro del espectro visible (ya antes de calentarse, el hierro se encontraba radiando, sólo que a una frecuencia la cual no podíamos ver). Una vez que el hierro se vuelva incandescente, la reflexión de las ondas emanadas de él sobre el resto de cuerpos no incandescentes que hay en la habitación, nos permiten vislumbrar el resto de cuerpos, aún sin que emitan ellos mismos en el rango visible.

En resumen: Todos los sólidos emiten continuamente ondas electromagnéticas. Dichas ondas tendrán una frecuencia mayor o menor, en relación directa con la temperatura del cuerpo que las emite.

Cuerpo negro.

Cuando un sólido recibe el impacto de una onda electromagnética, dicha onda puede ser reflejada o absorbida por el cuerpo. En caso de que la onda sea absorbida, eso supondrá un cambio en la temperatura del sólido, lo que conllevará a su vez un cambio en la frecuencia y en la cantidad de ondas térmicas radiadas por el sólido.

Supongamos ahora el intercambio energético que tiene lugar entre un cuerpo suspendido, y las paredes de un recinto que lo contiene (como la bola colgante de la siguiente figura):



Parte de las ondas que recibe el cuerpo serán reflejadas y otra parte serán absorbidas. Si suponemos las paredes del recinto aisladas del exterior, el intercambio energético llevará con el tiempo al equilibrio térmico, cosa que ocurrirá cuando el cuerpo emita la misma cantidad de energía que absorba (en forma de radiación).

Para cada valor infinitesimal de frecuencia dv, habrá una cierta cantidad de radiación incidente por unidad de volumen sobre el cuerpo dentro del recinto (la bola). Esa cantidad se denomina irradiancia espectral Iv. De toda esa radiación incidente Iv, hemos visto que una parte se absorbe. Dicha fracción de Iv absorbida se llama poder absorbente y se denota por a.

La cantidad de radiación que este cuerpo (la bola) emite por unidad de área se denomina radiancia espectral y se designa por Rv. Cuando las paredes aisladas y el cuerpo se encuentran en equilibrio térmico, se observa que se cumple la siguiente ecuación sea cual sea el valor infinitesimal de frecuencia elegido:

R = a·I    (1)

R / a = I       

Esta ecuación viene a decir que la cantidad de radiación de frecuencia v que el cuerpo va a emitir en el equilibrio, va a ser igual que la fracción de radiación incidente absorbida (y no reflejada). O, en otras palabras, que la proporción ente la cantidad de radiación emitida y la cantidad absorbida, debe ser igual al total de radiación incidente (contando la absorbida más la reflejada).

Teniendo en cuenta que el habitáculo del ejemplo que estamos tratando está cerrado (y las ondas irán emitiéndose en todas direcciones y reflejándose con las paredes de un modo arbitrario), la cantidad de radiación que varios cuerpo diferentes colocados en el interior van a recibir por unidad de volumen (I) va a ser la misma, por lo tanto, tenemos que:

I = R1 / a1 = R2 / a2 = ... = Rn / an    (2)

Es decir; que cuando el habitáculo alcance el equilibrio térmico, la proporción entra la radiación emitida y absorbida por cualquier cuerpo en su interior va a ser la misma,  e igual a I, la cantidad total de ondas incidentes en los cuerpos (contando las absorbidas y las reflejadas).

Pues bien; cuando nos encontramos con un cuerpo que absorbe todas las ondas que recibe (a = 1), no reflejando, por tanto, ninguna, decimos que estamos ante un cuerpo negro. Para ellos, siempre se cumple en el equilibrio que la cantidad de radiación emitida es igual a la total recibida:

R = I    (3)

Cómo estudiar un cuerpo negro.

Desde un punto de vista práctico, la mejor forma de conseguir estudiar el comportamiento de un cuerpo negro (un cuerpo con poder absorbente perfecto), es mediante el siguiente método:

Partimos de una cavidad cerrada mantenida a temperatura constante y aislada del exterior. Practicamos a continuación un orificio pequeño a la cavidad, de modo que pueda penetrar dentro del habitáculo radiación desde el exterior. Tras n reflexiones con las paredes de la cavidad, finalmente todas las ondas electromagnéticas que entren en el habitáculo serán absorbidas (y si el orificio es pequeño, la probabilidad de que parte de la radiación incidente salga por dicho agujero tras una reflexión y sin llegar a ser absorbida será muy pequeña).



Como toda la radiación incidente (I) es absorbida por las paredes, el poder absorbente será perfecto (a = 1), y por lo tanto, toda la radiación que emane del orificio será emitida por la cavidad. De modo que el orificio se comporta como un cuerpo negro. Esto quiere decir que toda la radiación que emana del orificio es radiación térmica propia (R), ya que toda la radiación externa que incide en el orificio (I) es absorbida y desaparece.

Densidad espectral de energía electromagnética.

En el recinto cerrado que estamos tratando, continuamente entran ondas electromagnéticas por el orificio, las cuales comienzan a reflejarse por las paredes, hasta que finalmente son absorbidas. Las propias paredes, tras absorber estas ondas, verán modificadas su temperatura, lo que llevará a la emisión de nuevas ondas electromagnéticas, que también empezarán a rebotar por el receptáculo. Por lo tanto, en un momento dado, tendremos una cierta cantidad de radiación rebotando dentro de la cavidad, lo cual supone una determinada cantidad de energía electromagnética en el interior.

Para estudiar esta cantidad de energía electromagnética, se suele utiliza una función de densidad espectral, la cual hace depender esta energía interna a la cavidad a dos variables: la frecuencia concreta de las ondas que queremos tener en cuenta, y la temperatura del habitáculo.

 (4)

Según sea la temperatura (T) en el interior del recinto cerrado, para cada frecuencia v vamos a tener un valor distinto para la cantidad de energía contenida (a esa frecuencia). Por ejemplo, a una temperatura fija de 5K (5 grados Kelvin), en el interior tendremos una cierta cantidad de energía electromagnética conformada por ondas con una frecuencia de 10^10 Hz, otra cantidad distinta de energía conformada por ondas de 10^20 Hz, etc. La función de densidad espectral, será así una función analítica capaz de decirnos la energía contenida en la cavidad, para cualesquiera par de valores T, v.

La radiación que sale por el orificio de nuestro cuerpo negro (que ya hemos visto que no es la misma radiación que entró, la cual fue absorbida), va a estar relacionada con esta densidad de energía del interior de la cavidad. Si partimos, por comodidad, de un orificio de área igual a la unidad, y teniendo en cuenta que las ondas saldrán del interior a la velocidad de la luz c en cualquier dirección; al calcular la cantidad de energía radiante que atraviesa hacia fuera el orificio en todas las direcciones posibles por unidad de tiempo (dt = 1)  en un ángulo sólido de 2·pi (conformando así un hemisferio similar a lo que quedaría si cortásemos la Tierra por la mitad, y si la base de esa Tierra cortada fuese el orificio), obtenemos que:

 (5)

Es decir; que para cada par de valores de frecuencia y temperatura, la cantidad de energía radiada por el orificio será igual c / 4 veces la densidad de energía en el interior de la cavidad. Se constata así una relación directa entre la densidad de energía interna en la cavidad, y la energía radiada por el orificio.

Se observa, además, que la relación (5) se cumple para todo cuerpo negro en equilibrio, independientemente de las propiedades del material que lo conforme y de la forma del cuerpo. Esto significa que el espectro de radiación emitida por un cuerpo negro en equilibrio térmico (la gráfica de la función R(v, T)) posee características universales. Un cuerpo negro siempre va a emitir la misma cantidad de radiación para una determinada temperatura y frecuencia. Esto supone que la gráfica de emisión para un cuerpo negro en equilibrio es siempre la misma:



Creo que es importante repetir de nuevo que siempre se obtienen experimentalmente los mismos valores empíricos mostrados en esta gráfica, sea cual sea el cuerpo negro de estudio, y sea cual sea el tipo de ondas electromagnéticas incidentes al mismo. La emisión siempre será la misma y dependerá únicamente de la temperatura del cuerpo negro (y de la frecuencia concreta que se estudie en un momento dado).

Si integramos ahora (5) para todas las frecuencias posibles, conseguimos una función analítica para la cantidad de energía emitida por el cuerpo, la cual sólo va a depender de la temperatura. El resultado de esta integración no es más que la función que queda, una vez trabajamos sobre ella dejando fija la variable T, y sumando la densidad de energía para cada valor infinitesimal posible en la frecuencia:

 (6)


En nuestro ejemplo de cuerpo negro, esto significa que la radiancia total emitida por el orificio de la cavidad (sumando el valor de todas las frecuencias posibles) a cierta temperatura T, es igual a c /4 veces la densidad de energía electromagnética total  contenida en su interior (sumando también el valor de la densidad para cada frecuencia posible).

Lo dejamos aquí de momento. En el próximo artículo veremos como el esfuerzo a finales del siglo XIX por encontrar la expresión correcta para la función , condujo finalmente a una contradicción entre lo que la física clásica preveía, y lo que los resultados experimentales mostraban (catástrofe ultravioleta).

Referencia utilizada:

Física Cuántica. Ediciones Pirámide (1999)
Coordinador del libro: Carlos Sánchez del Río.

domingo, 10 de mayo de 2015

El absurdo (II)

"Los hombres se parecen a esos relojes de cuerda que andan sin saber por qué. Cada vez que se engendra un hombre y se le hace venir al mundo, se da cuerda de nuevo al reloj de la vida humana, para que repita una vez más su rancio sonsonete gastado de eterna caja de música, frase por frase, tiempo por tiempo, con variaciones apenas imperceptibles."
Parerga y Paralipómena.(Schopenahuer)

¿Conoce alguien a las dos personas que aparecen en la fotografía? Evidentemente no. Yo tampoco los habría conocido hasta hace muy poco. No te preocupes, son sólo dos de mis bisabuelos paternos.

No tienen nada de especial. Son sólo dos personas más que han pasado por la existencia, y que la abandonaron tras una breve instancia por la realidad: Nacieron a finales del siglo XIX. Mi bisabuelo, que era químico, murió a los 52 años de edad por problemas cardíacos, y ella, que era ama de casa, murió a los 34 años debido a "dolores reumáticos". Poco más se conoce de sus vidas.

Sin duda vivieron y padecieron, tendrían buenos y malos momentos, seguro que en muchas ocasiones disfrutaron, gozaron, rieron, lloraron, amaron y odiaron. Y por supuesto que, como seres humanos que fueron, se vieron envueltos en el mismo juego de necesidad y satisfacción en que todos nosotros nos encontramos ahora mismo. Lucharían por obtener recursos, por tener hijos, y por suplir todas las exigencias de la vida. Finalmente, llegado el momento, verían también, horrorizados, como se les apagaba la vida, y como volvían a esa nada que constituye la muerte.

La cuestión es que ya nadie sabe de ellos. Si fueron buenos o malos, felices o infelices, no tiene importancia alguna, ni siquiera para sus familiares directos (de hecho, mi padre tampoco pudo reconocer a sus propios abuelos en la foto, ya que no los llegó a ver en vida). Ya nadie sabe apenas nada de la vida de estas personas, y además a nadie le interesa lo más mínimo. Es absurdo. Fueron personas hace poco más de 60 años, estaban vivas como nosotros. Se esforzaron por hacer lo que se supone que todos debemos hacer: sobrevivir, dejar descendencia, y asegurarse de que esa descendencia crezca y se reproduzca a su vez, de modo que el ciclo pueda continuar. Y lo hicieron bien, prueba de ello es que yo ahora mismo estoy aquí escribiendo estas líneas. Y pese a todo lo que hicieron, no queda ya ni rastro de su ser.

Fueron marionetas. No puedo expresarlo de otro modo: fueron utilizados para un estúpido fin, al que nadie puede dar un sentido racional. La teoría del soma desechable viene al cuento. Quizás se pueda decir que sus genes perviven en su descendencia (yo, para no ir más lejos, comparto aproximadamente 1/8 de sus genes), pero mis bisabuelos sin duda no eran sólo las copias de esas moléculas de ADN que también hay en mi genoma: ellos eran mucho más. De hecho, si hay algo que pueda definir a una persona, es su fenotipo completo, ese soma que es precisamente el que desaparece tras una breve existencia. Porque si hay algo que lucha y sufre, es la expresión del gen, y no el gen en si mismo. No, mis bisabuelos ya no existen, como tampoco yo existiré dentro de poco tiempo, por mucho que mis hijas procreen.

Es un hecho: mis bisabuelos fueron títeres de este teatrillo de mundo. Igual que lo somos y yo. También nosotros dejaremos pronto la existencia, y a las pocas décadas, todo rastro de nuestro paso por la realidad habrá desaparecido. El sonsonete del que habla Schopenhauer continuará, y nosotros desapareceremos pronto por completo. Si fuimos felices o infelices, ricos o pobres, buenos o malos, pronto dejará de tener importancia. Si tu vida fue muy satisfactoria, y estuvo llena de gozos, o si te dedicaste a la meditación budista no tendrá importancia alguna. El tiempo no sólo borrará todos nuestros actos, sino también la consecuencia de nuestros actos. Llegado el punto, será imposible que nadie pueda siquiera conocer de nosotros por mucho que lo intente.

Y no me negarás que es grotesco. Que es ridículo. Cualquier persona que lo piense y lo comprenda, no tiene más remedio que reír con descaro ante esta realidad. Porque somos seres racionales dentro de una existencia irracional, una existencia que no tiene causa racional (porque la evolución es simple acto mecánico), ni tampoco un fin racional (porque los fines de nuestra existencia son los fines de nuestra causa evolutiva, la cual es un mero acto espontaneo). Y para más inri, somos seres conscientes de este fatal e irracional destino; comprendemos la indiferencia del universo hacia nosotros, y entendemos que nuestro sino en la Tierra consiste en obedecer unos dictados que aseguran la supervivencia de ciertas moléculas de ADN que nuestras células llevan en su núcleo.

Si aún así, si a pesar de todo lo dicho, te resistes a compartir estas ideas (que en el fondo no son más que la divulgación de las ideas de autores como Schopenhauer o Albert Camus), no te preocupes, el tiempo me dará la razón cuando todo nuestro ser, junto con las consecuencias de nuestro ser, sean pasto de la nada más absoluta. Reflexiona un segundo: ¿De qué habrá servido tu vida dentro de algunas décadas cuando nadie te recuerde y nadie se preocupe por tu existencia? ¿De qué sirvió los 34 años de vida de mi bisabuela? ¿Para qué tuvo que vivir, luchar, y morir dolorida en una cama?...¿para que yo pudiera aparecer en el mundo y continuar con este ciclo de dolor y miseria? ¡¡Por favor, es absurdo!!


miércoles, 6 de mayo de 2015

Nirvana - Sappy


Nirvana ha sido, sin duda, el mayor representante del nihilismo dentro del mundo de la música. El líder de la banda, Kurt cobain supo expresar desde su música, y con una increíble habilidad, el sinsentido del mundo. Además, como buen artista, no expresó sus ideas de un modo modo racional, sino casi siempre instintivo. Su obra y su vida son un claro ejemplo de compromiso con un sentimiento de vació y de absurdo. Kurt se enfrenta a diario con una vida a la que no le ve sentido: la vida le aburre, le desespera, y el hastío del que hablaba Schopenhauer lo embarga por completo.

Ni la fama, ni el matrimonio, ni siquiera el nacimiento de su hija, Frances Bean Cobain consiguen mitigar su sufrimiento existencial. Cuando finalmente no puede más, y ya ni la droga puede consolarlo, decide dispararse en la cabeza con un arma.

Nihilismo en su máxima expresión artística.

En mi opinión, con su tema Sappy, nirvana expresa las ideas de Kurt de un modo muy explícito:


El título de la canción se suele interpretar como un juego de palabras, en la que el grupo intenta expresar lo siguiente: Sad + Happy = Sappy.

La letra del tema es la siguiente:

And if you save yourself
You will make him happy
He'll keep you in a jar
Then you'll think you're happy
He'll give you breather holes
Then you'll think you're happy
He'll cover you with grass
Then you'll think you're happy now

You're in a laundry room
You're in a laundry room
Conclusion came to you
Ooh

And if you cut yourself
You will think you're happy
He'll keep you in a jar
Then you'll make him happy
He'll give you breather holes
Then you'll think you're happy
He'll cover you with grass
Then you'll think you're happy now

You're in a laundry room
You're in a laundry room
Conclusion came to you
Ooh

( Solo )

You're in a laundry room
You're in a laundry room
Conclusion came to you
Ooh

And if you fool yourself
You will make him happy
He'll keep you in a jar
Then you'll think you're happy
He'll give you breather holes
Then you will seem happy
You'll wallow in your shit
Then you'll think you're happy now

You're in a laundry room
You're in a laundry room
You're in a laundry room
Conclusion came to you
Ooh

Aparte del magnífico solo de guitarra que aparece en mitad de la canción, la letra es reveladora. Kurt nos señala su nihilismo cuando nos habla de lo absurdo de la vida humana. No importa lo que hagas, la felicidad es un imposible. Nos afanamos a diario en satisfacer nuestras interminables necesidades; y durante un fugaz instante nos creemos ser felices, pero rápidamente, hagamos lo que hagamos, la necesidad reaparece con otras formas, y al final del camino, la muerte nos espera. La nada acabará más pronto que tarde con nuestra existencia, y con todo rastro de nuestro paso por el mundo. Y es el hecho de comprender este absurdo, lo que hace aparecer un sentimiento de indiferencia (sappy) ante la realidad. Esta reflexión me ha recordado mucho al protagonista de la novela corta de Camus: El extranjero.