Mostrando entradas con la etiqueta Historia de la ciencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta Historia de la ciencia. Mostrar todas las entradas

miércoles, 19 de julio de 2017

Zenón de Elea, Lewis Carroll y Feyerabend

Nuestra Historia Más Grande Jamás Contada tuvo como centro el movimiento de los cuerpos. Sin embargo, la historia del pensamiento nos muestra lo difícil que es tener una idea clara de lo que es el movimiento.


Para Heráclito todo estaba en movimiento y en continuo cambio (no se puede bañar dos veces en el mismo río), mientras que para Parménides, lo inmutable del ser era la clave de la realidad (el ser es y no puede no ser). Zenón de Elea era discípulo de Parménides y quiso echar una mano a la defensa de las tesis de su maestro. Desarrolló para ello una serie de argumentos que mostraban la imposibilidad del movimiento y, por tanto, del cambio. El más famoso es el de Aquiles y la tortuga. Si le daba ventaja en una carrera, Aquiles nunca podría alcanzar a la tortuga. Cuando llegara al punto de partida de la tortuga (A), ésta ya estará más adelantada (en B). Cuando Aquiles llegue al punto B, la tortuga habrá avanzado otro poco (hasta C). De esta manera habrá una serie infinita de recorridos que Aquiles tendría que completar antes de alcanzar a la tortuga. Una serie infinita solo puede ser recorrida en un lapso de tiempo infinito. Conclusión: Aquiles no alcanzará a la tortuga. Como esto ocurre para cualquier ventaja que tenga la tortuga, por pequeña que sea, se demuestra que el movimiento es imposible.

Es difícil saber si Zenón de Elea se creía realmente su argumento. Tal vez pensara que el mundo que llamamos real es sólo apariencia, y que esta apariencia es revelada por la razón, según sus argumentos. Aristóteles analizó las falacias en las paradojas de Zenón de Elea con resultado desigual, pero la anécdota atribuida a Diógenes el cínico, que se puso a caminar tras una lección de Zenón de Elea, mostrando que "el movimiento se demuestra andando", constituye su refutación más conocida. Pura razón práctica.

Propongo ver estos argumentos desde otra perspectiva (no digo que fuera la intención de Zenón de Elea, ya adelanto que no creo que sea el caso). Constituyen un ejercicio intelectual, una especie de adivinanza, un nudo (ayúdame a desatarlo, que escribió Lewis Carroll) que se propone al interlocutor: "Si eres tan listo, a ver si sabes encontrar la causa de la paradoja, pues solo si lo sabes hacer podremos creer que tu discurso sobre la realidad estará bien fundamentado." En este sentido soy amigo de las paradojas. No creo que cada uno tenga que saber resolverlas todas, pero sí que les reconozco su aspecto lúdico y su manera de hacernos reflexionar sobre nuestro raciocinio.

El propio Lewis Carroll planteó otra carrera entre Aquiles y la Tortuga. Ésta era una carrera lógica. En boca de la Tortuga, la primera proposición de Euclides dice:

(A) Dos cosas iguales a una tercera son iguales entre sí.
(B) Estos dos lados de un triángulo son iguales a uno tercero.

Por tanto:

(Z) Estos dos lados son iguales entre sí.

Aquiles se queja y dice que la última proposición debe ser llamada (C), pues se sigue a continuación de (A) y (B). La tortuga afirma que, antes de concluir (Z) hay que aceptar la lógica del silogismo. Es decir, hay que aceptar:

(C) Si se aceptan (A) y (B) debe aceptarse (Z).

Aquiles accede y cree acabada la nueva carrera. Pero esta no ha hecho más que empezar, ya que ahora debemos introducir:

(D) Si se aceptan (A), (B) y (C) debe aceptarse (Z).

(E) Si se aceptan (A), (B) (C) y (C) debe aceptarse (Z).

... ... ...

Según la tortuga, nunca se aceptará (Z), y así nace otra paradoja, esta vez sobre la imposibilidad del movimiento, no ya en el mundo real, sino en la propia esencia de la razón, en la lógica.

En tiempos más recientes, hay filósofos que nos han traído nuevos argumentos sobre la imposibilidad del movimiento, esta vez en el progreso de la ciencia. Por ejemplo, Feyerabend viene a decir:

(A) No existe un método científico. Para toda regla o método, encontramos excepciones en la historia de ciencia.

(B) Si queremos despojar al método científico de todas las reglas que se han transgredido, nos quedamos con que "todo vale".

(C) De lo anterior se deduce que la ciencia no está en mejor posición que otras construcciones sociales como para demandar un status superior.

(D) Se deduce también un relativismo cultural por el cual podemos admitir que ciertas creencias que son verdaderas para nosotros no lo son para otros. Estas creencias se refieren no solo a gustos o cuestiones morales, sino también a afirmaciones acerca de la realidad física. No hay posibilidad de definir criterios que definan la objetividad y la razón. Así que objetivamente no hay que elegir entre las afirmaciones de la ciencia y de la astrología, por ejemplo.

Feyerabend escribía con un lenguaje muy directo, pero poco claro. No es de extrañar que continuamente se quejara de que no le habían entendido, especialmente cuando escribió su obra "Contra el Método". Acusaba a sus críticos de no distinguir entre chistes, ironías, paradojas y las ideas centrales del libro. Es lo que tiene no escribir con claridad.

Además de Feyerabend, hay corrientes post-modernas, hermenéuticas, deconstructivistas, ... que emplean argumentos de este estilo para criticar a la ciencia. Algunas veces se la tacha de machista, otras de occidental y, por tanto imperialista, y así sucesivamente. El hilo conductor parece ser algo así como:

(A) La ciencia es un quehacer humano (o un discurso, o lo que sea).

(B) Por tanto no está exenta de los problemas de todo que hacer humano (o de todo discurso, ...).

(C) Por tanto, sus construcciones o teorías estarán sesgadas y reproducirán los esquemas de poder - o los prejuicios, o lo que sea - de la clase dominante - o de los hombres, o de occidente, pon aquí tu fobia favorita -.

Es decir, que si hubieran sido mujeres asiáticas quienes hubieran estudiado el movimiento de los cuerpos, la ley de la gravedad sería distinta. Bueno, tal vez no esa en particular, pero sí alguna otra ley o teoría científica. Aunque no sabemos cuál, no nos lo dicen, no hablan claro.

Veo todos estos discursos como veo las paradojas de Zenón de Elea o la de Lewis Carroll. El primero tal vez se creyó sus argumentos, el segundo no (Lewis Carroll era profesor de matemáticas y de lógica). Los pensadores que las proponen harían bien en tomarlas como lo que son y no como argumentos verdaderos. Se arriesgan a quedar en ridículo frente a un Diógenes moderno, o frente a un Sokal.

miércoles, 7 de mayo de 2014

El modelo de Cournot. Una historia de éxito (2).


Más recientemente, un par de resultados han contribuido más a la utilidad del modelo de Cournot. Kreps y Scheinkman (1983) [4] mostraron que un modelo más realista en el que las empresas eligen capacidad y después compiten en precios tiene la misma solución que el de Cournot. Moreno y Úbeda (2006) [5] confirmaron el resultado con una descripción aún más realista de la competencia en precios. Kemplerer y Meyer (1989) [6], por su parte, mostraron que cuando las empresas en un oligopolio compiten en funciones de oferta (como las subastas eléctricas, donde las empresas proponen una cantidad y un precio al que venderla) el resultado también es el comportamiento de Cournot siempre y cuando haya alguna incertidumbre en la demanda. Tras estos resultados, se entendía que el modelo de Cournot era una forma reducida de una descripción más complicada de un mercado oligopolista.

Los experimentos de laboratorio confirman que los sujetos se comportan de acuerdo a las predicciones teóricas para el caso del duopolio. Para más empresas, las elecciones de los sujetos experimentales convergen más rápidamente al equilibrio competitivo de lo que dice la predicción teórica (véase, por ejemplo, Holt, 1985) [7]. Este resultado no se ve como un demérito grave del modelo: si ha de servir para diseñar mejores políticas de competencia, mejor si sobreestima las posibilidades de colusión que si hace lo contrario.

La investigación, sin embargo, nunca acaba, y el modelo de Cournot se enfrenta a nuevos retos. Otra área de aplicación del modelo es el análisis de los mercados de futuros. Describamos el caso más sencillo. Pongamos que dos empresas compiten en un mercado semanal que abre el viernes. Si el lunes anterior una empresa firma un contrato con algunos compradores para entregar el viernes una cantidad del bien a un precio convenido, este acuerdo constituye un contrato de futuros. Una de las razones para hacer un contrato así es que los firmantes no tienen que enfrentarse a la incertidumbre de esperar al viernes para conocer el precio. Allaz y Vila (1993) [8] mostró que en este simple modelo, un efecto añadido del mercado de futuros es que las empresas se comportan más competitivamente (funciona como si las empresas compitieran dos veces). Otros trabajos disputan esta conclusión, pero la discusión del presente artículo no es acerca de la investigación en esta área, sino en si el modelo de Cournot puede verse como una forma reducida de los escenarios más realistas cuando se incluyen mercados de futuros.

Ferreira (2014) [9] muestra que este no es el caso. El modelo de elección de capacidad más competencia en precios no es equivalente al de Cournot en presencia de mercados de futuros. De hecho, donde el modelo de Allaz y Vila (mercados de futuros más competencia de Cournot) encuentra un efecto pro-competitivo en el mercado de futuros, el modelo de Ferreira (elección de capacidad, mercado de futuros más competencia en precios) encuentra que el equilibrio vuelve a ser el de Cournot. Esto significa que el modelo de Cournot puede ser una forma reducida del modelo con elección de capacidad, mercado de futuro y competencia en precio, pero no del modelo de elección de capacidad más competencia en precios cuando se añade un mercado de futuros. Así, la manera correcta de analizar el mercado de futuros en un contexto oligopolístico puede no requerir el añadir un mercado de futuros a un modelo de Cournot.

Ni que decir tiene que esta es un área de investigación en sus comienzos, y que la última palabra no está dicha. Es necesario acumular más evidencias teóricas, empíricas y experimentales, pero el modelo de Cournot parece que seguirá siendo útil si uno sabe cuándo y cómo usarlo.

Referencias:

1. Brander, J.A. 1985. Export subsidies and international market share rivalry.Journal of International Economics18, 83-100.

2.Brander, J.A., and Krugman, P. 1983. A ‘reciprocal dumping’ model of international trade. Journal of International Economics15, 313-321.

3.Bunda, M.M. 2006. Monsanto, Matsushita, and “conscious parallelism”: towards a judicial resolution of the “oligopoly problem”. Washington University Law Review84, 179-210.

4. Kreps, D.M., and Scheinkman ,J.A. 1983. Quantity precommitment and Bertrand competition yield Cournot outcomes. The Bell Journal of Economics14, 326-337.

5. Moreno, D., and Ubeda, L. 2006. Capacity precommitment and price competition yield the Cournot outcome. Games and Economic Behavior56, 323–332.

6. Klemperer, P., and Meyer, M. 1989. Supply function equilibria in oligopoly under uncertainty. Econometrica57, 1243-1277.

7. Holt, C.A. (1985). An experimental test of the consistent conjectures hypothesis.American Economic Review75, 314-25.

8. Allaz, B., and Vila J.-L. 1993. Cournot competition, forward markets and efficiency. Journal of Economic Theory59, 1–16.

9. Ferreira J.L. (2014). Capacity precommitment, price competition and forward markets, Economics Letters, 122 (2) 362-364.

-----------------------------------------------------------------------------------------------------------
Hace cinco años en el blog: El otro asombro de Darwin.
Y también: ¿Una bronca a Hollywood?
----------------------------------------------------------------------------------------------------------- 

sábado, 3 de mayo de 2014

El modelo de Cournot. Una historia de éxito (1).

Esta es la primera parte de la traducción de mi artículo de abril en Mapping Ignorance.


Los modelos económicos de competencia perfecta y de monopolio solo necesitan incluir un comportamiento individual que toma como dado el ambiente en el que están. En el caso de la competencia perfecta, las empresas y los consumidores solo necesitan saber los precios que prevalecen en el mercado para decidir sus planes de producción y de compra, mientras que el monopolista necesita saber la demanda a la que se enfrenta.

Entre estos dos casos extremos se encuentra el mundo de los oligopolios, donde las empresas no pueden tomar como dados los precios o sus demandas, puesto que ambas cosas dependen de sus propias acciones. La empresa A en un duopolio necesita anticipar los planes de la empresa B, pero la empresa B a su vez necesita anticipar los de A. Esta situación parece un círculo vicioso de imposible resolución, o de uno que puede tener muchas soluciones. Sin embargo, en 1838, Antoine Cournot presentó un modelo en el que la situación no era más complicada que resolver un sistema de n ecuaciones con n incógnitas. La historia de este modelo es la historia de un éxito. Cada empresa escoge su cantidad como una reacción a la demanda del mercado, los costes de producción y las cantidades elegidas por las demás. De esta manera se forma un sistema de n ecuaciones, cuya solución es el equilibrio de Cournot.

A este siguieron muchos otros modelos, de los cuales el más famoso se debe a JLF Bertrand, en el que las empresas eligen precios en lugar de cantidades como variable de control. Sin embargo, este modelo lleva a una paradoja: un mercado con dos empresas compitiendo es suficiente para llegar al resultado perfectamente competitivo, un hecho nada fácil de observar en la economía real. El modelo de Cournot, por su parte, tiene la buena propiedad de converger de manera suave al resultado competitivo a medida que aumenta el número de empresas y de coincidir con el modelo de monopolio para el caso de una sola empresa. El modelo de Bertrand necesita de más complicaciones para hacer algo parecido, como introducir suficiente heterogeneidad en los productos.

El modelo ha resultado exitoso para ayudar a entender el comercio internacional con hipótesis más realistas que las tradicionales. Por ejemplo, explica cómo los subsidios, pueden ser beneficiosos para el país que los promueve, algo que en competencia no sucede, (Brander, 85) [1] o cómo prácticas de dumping pueden ser socialmente beneficiosas en ciertas circunstancias (Brander y Krugman, 1983) [2]. También ayuda a usar índices de concentración que captan el grado de competitividad en una industria en términos de "número equivalente de empresas iguales". El más conocido es el índice que Herfindahl, usado por EEUU y la Unión Europea para llevar a cabo sus políticas anti-trust.

El modelo también aclara los argumentos acerca de la existencia de colusión tácita entre las empresas de un oligopolio, lo que constituye una aplicación de la teoría a los aspectos legales de las políticas de competencia. Por ejemplo, si en un mercado oligopolístico con, digamos, cuatro empresas prevalece un precio por encima del de competencia, ¿estamos ante un caso de colusión tácita? El análisis económico indica que las empresas pueden estar comportándose de manera no colusiva, poniendo el precio de equilibrio respondiendo a los incentivos individuales. El resultado no es de competencia perfecta, pero este hecho debe achacarse más a la estructura de mercado o a la regulación que prevalezca que a las empresas.

El siguiente ejemplo es más complejo. En una situación repetida existen múltiples equilibrios, y las empresas pueden fijar precios todavía más altos que los del equilibrio de Cournot con la consigna de que, si una empresa se desvía de esta estrategia, las otras comenzarán una guerra de precios que castigará a la que se desvía. Esta estrategia es también un equilibrio y las empresas pueden alegar que han llegado a él de manera unilateral. Sin embargo, en este caso el análisis económico muestra que esta situación es muy poco probable, puesto que la complejidad de la estrategia y la coordinación en un equilibrio particular entre muchos fuera del de Cournot, es evidencia de la existencia de una coordinación tácita o explícita. Las complejidades de cómo integrar los análisis económicos y jurídicos pueden verse en Bunda (2006) [3].

(Continúa aquí.)

-----------------------------------------------------------------------------------------------------------
Hace tres años en el blog: El alemán inefable.
Y también: La ilegalización de Bildu.
Hace cinco años en el blog: La razón moral en bancarrota.
Y también: La razón moral en democracia.
Y también: La razón moral a juicio.
----------------------------------------------------------------------------------------------------------- 

jueves, 31 de octubre de 2013

Un tirón de orejas a Mario Bunge (con todo el cariño)


Mario Bunge, gran filósofo cuyos ensayos sobre el método científico llevan años encima de mi escritorio y cuyos escritos sobre ciencia y pseudociencia son de necesaria lectura, en su libro "Las pseudociencias ¡vaya timo!", escribe:
"...todos los estudiantes de económicas y empresariales deben estudiar microeconomía neoclásica. Sin embargo, es improbable que usen dicha teoría para abordar algún problema económico de la vida real. La razón de tal inutilidad es que algunos de los postulados de esa teoría son abiertamente irreales, otros excesivamente difusos y difícilmente comprobables. En efecto, la teoría supone que todos los actores del mercado son libres, mutuamente independientes, perfectamente bien informados, igualmente poderosos, inmunes a la política y completamente racionales, es decir, capaces de elegir la opción que con mayor probabilidad maximizará la utilidad esperada. Pero el mercado real está poblado de individuos y empresas que poseen una información imperfecta y, lejos de ser completamente libres, pertenecen a redes sociales o a monopolios." (pag. 59)
¿Qué hay de cierto en todo esto?

La verdad es que muy poco. Vayamos por partes.

1. La microeconomía neoclásica es una primera aproximación a la Economía moderna. Sería el equivalente a aprender la Mecánica clásica de Newton. Ya sabemos que es una descripción muy incompleta de la Física, pero tiene muchísima utilidad. La microeconomía neoclásica también la tiene. Con ella en la mano los actuales gobernantes de Venezuela o de Argentina podrían estar evitando muchos problemas que ahora padecen sus ciudadanos. ¿Inútil? No lo creo.

2. La microeconomía neoclásica no hace los supuestos que señala Bunge. Esos supuestos se hacen en el modelo de mercados competitivos. Que yo sepa los neoclásicos se ocupaban de muchos otros mecanismos económicos. Hablaban de monopolios y oligopolios, (por ejemplo: Joan Robinson y Edward Chamberlin), y hacían sus pinitos con las externalidades (Arthur Pigou) y bienes públicos (Erik Lindahl), con el tratamiento de la incertidumbre (Louise Bachelier) y con la economía de los recursos naturales (Harold Hotelling). Es cierto que lo hacían sin tener un modelo en el que se pudiera englobar todo, pero no llegaban a ser el hombre de paja que se hace de ellos.

El tirón de orejas por el comentario anterior llega hasta aquí. Lo que sigue intenta ser una guía para quien esté tentado deducir cosas sobre la Economía moderna a cuenta de las críticas a un modelo neoclásico.

3. La microeconomía moderna sí ofrece un tratamiento unificado del mecanismo de mercado y de los fallos de mercado: competencia imperfecta, externalidades, bienes públicos y problemas de información (cuando hay incertidumbre simétrica o asimétrica). Bunge debería estar contento de saber que en cada uno de estos temas se retiran algunos de los supuestos irreales que correctamente señala. Además, ha sentado las bases para que la macroeconomía moderna tenga su fundamento microeconómico, no como en la síntesis neoclásica, que tomaba la micro neoclásica por una parte y la macro keynesiana por otra.

4. La microeconomía moderna, además, ha explorado alternativas al comportamiento racional y ha postulado modelos de comportamiento económico basados en adaptación, imitación, evolución, dinámicas sociales, aprendizaje, racionalidad limitada, etc. A pesar de que hayan podido tener éxito para explicar algunos aspectos de la realidad económica, ninguno ha llegado a abarcar y explicar tanto como lo que consigue la Economía moderna. Es más, a pesar de que la versión estándar de esta teoría efectivamente asuma individuos racionales, este supuesto es suficiente, pero no necesario. Para unos cuantos modelos casi las mismas conclusiones se derivan de supuestos mucho menos restrictivos, como señalé aquí y aquí.

5. En cualquier caso, cualquier teoría alternativa deberá mantener muchas de las conclusiones de la Economía moderna (de las cuales unas cuantas ya estaban en el modelo neoclásico) puesto que explican muy bien muchas regularidades económicas observadas. En cuanto tengamos una mejor, aunque sea una teoría parcial, seré el primero en alegrarme y en aceptarla.

6. Ocurre con demasiada frecuencia que cuando alguien critica la Economía se queda en una visión muy distorsionada de lo que es. Criticar la Economía porque un modelo antiguo y específico para unas situaciones peca de irreal para aplicarse a toda la economía es, por lo menos, errar el tiro.

P.D.: Tenía casi terminada esta entrada cuando, por twitter, @ptarra (el autor de Porque no puedo estar callado) tuitea este enlace, que no puedo sino comparar con este otro. ¡Bunge cae en todos los tópicos de una mala crítica a la Economía!

-----------------------------------------------------------------------------------------------------------
Hace tres años en el blog: Pregunta para físicos (2).
------------------------------------------------------------------------------------------------------------

martes, 13 de noviembre de 2012

Dos historias de éxito y una de quién sabe

Primera:

David Ricardo, hace ya dos siglos, propone el modelo de la ventaja comparativa para el comercio internacional. En su versión más sencilla el modelo tiene dos países en los que se producen dos bienes, pero cada país tiene una productividad distinta. Dos países, dos bienes, dos tipos de productividad.

Con este modelo se supera la idea de la ventaja absoluta para explicar el comercio. Durante mucho tiempo no teníamos datos empíricos para comprobar que el modelo fuera cierto. A lo largo del siglo 20, en cuanto los gobiernos empezaron a tener institutos de estadística y a recoger datos (siguiendo las indicaciones de los economistas académicos), se pudo poner el modelo a prueba. Aunque al principio se parecía validar el modelo, resulta que los siguientes datos parecían dar la razón al modelo de ventaja absoluta. ¿Qué hacer? ¿Desechar el modelo o mejorarlo?

Llegó Krugman y se le ocurrió mejorarlo, introduciendo la competencia monopolística y mostrando que los datos se explican con el modelo de ventaja comparativa más este tipo de competencia. (Básicamente indica preferencia por la variedad y que las marcas tienen cierto poder sobre el precio que ponen aunque compitan con otras marcas.)

Segunda:

En los años 50, Becker propone un modelo para analizar los efectos económicos de la discriminación (por raza, sexo,...). La versión más simplificada de su modelo tiene dos tipos de trabajadores (A y B) y en cada tipo los hay más o menos productivos, pero sin que ser A o B interfiera en nada para su productividad. Esto abrió una línea de investigación en economía de la discriminación fructífera que pudo estudiar los efectos de la discriminación basada en preferencias por discriminar, en discriminación estadística y varias otras posibilidades, cada una con consecuencias distintas y sugiriendo políticas distintas para luchar contra ella.


En los 90 se pudieron empezar a contrastar los modelos con los datos obtenidos con los experimentos naturales ocurridos (en algunos estados de los EEUU se llevaron a cabo algunas políticas, en otros no, en algunos empezaron o acabaron antes, ...) y se pudo avanzar mucho en la comprensión de qué tipo de discriminación es la que prevalece y qué políticas son más efectivas. Entre los que trabajaron sobre esto están Leonard, Oaxaca y Roemer. En este blog se detalla parte de esta historia en las entradas etiquetadas como "Economía de la Discriminación" (poned estas palabras en el buscador del blog y aparecerán todas). Tenemos economistas desde la escuela de Chicago (Becker) a la escuela marxista analítica (Roemer) usando los mismos principios económicos de la teoría económica moderna para avanzar nuestro conocimiento sobre el tema.

Son dos historias de éxito, a pesar de la lentitud (así es la ciencia) y a pesar de haber nacido de un modelo con un nivel de simplificación del que alguien no familiarizado con la modelización económica fácilmente se podría burlar. En ambos casos tenemos dos conjuntos, con dos tipos de elementos en cada conjunto. En el primer caso, dos países con dos bienes producidos en ambos, pero con diferente productividad. En el segundo caso, dos conjuntos de trabajadores, cada uno con un subconjunto de trabajadores de distinta productividad.

Quién sabe:

Todo esto viene a cuento de un modelo que ha aparecido recientemente en Nada es Gratis para hablar de las consecuencias económicas (y solo económicas) de una hipotética independencia catalana realizada de manera amigable. En ese modelo hay dos conjuntos (Catalunya y España) con dos tipos de habitantes en cada uno de ellos (unas más ricos y otros más pobres). Es un avance sobre los discursos que uno lee en al prensa donde cada parte es un conjunto homogéneo. Es muy pronto para saber si ese modelo consigue desarrollar una buena línea de investigación, pero la idea no es, en principio, ridícula. Por eso animaría a sus autores a avanzar un poco más.
------------------------------------------------------------------------------------------------------------
Hace tres años en el blog: El Rey Carmesí.
------------------------------------------------------------------------------------------------------------

domingo, 19 de septiembre de 2010

Punto Fijo (1)



Muy a pesar de Parménides, todo está en constante movimiento. No siempre ha sido esto así. No en la mente de los humanos. La Tierra, su centro, era un punto fijo entre tanto movimiento. Una referencia confiable respecto a la que medir los movimientos, tanto de los objetos terrestres, como de los celestes.

El descubrimiento de que el Sol no daba vueltas a nuestro alrededor no supuso un cambio radical en este tema (lo supuso, ya sabemos, en otros, como en la vanidad de algunos que se creían el ombligo de la creación). El Sol era el punto fijo del modelo heliocéntrico. Era un punto fijo poco práctico, que nos ayudaba en los movimientos celestes, pero no en los terrenales.

El ingenio de los humanos descubrió otro punto fijo. Al rotar la Tierra sobre sí misma, ocurre que vemos el cielo de estrellas moverse sobre la prolongación del eje de rotación. En este movimiento de la bóveda celeste, como paraguas que giramos sobre nuestras cabezas, la estrella que esté en el centro de la bóveda giratoria, si es que alguna hay, permanecerá quieta a nuestra mirada, será nuestra Estrella Polar. La tenemos en el Polo Norte, pero no en el Sur.

Nuestro Sistema Solar está en la Vía Láctea, que gira sobre su centro. Gracias a ello, los guionistas de Star Trek pueden imaginar un sistema de referencia para los cursos de las naves, según su posición respecto al centro galáctico.

La Vía Láctea es una entre los miles de millones de galaxias que pueblan el universo conocido. Pero el universo no tiene centro, no hay un punto en el espacio que sea referencia universal. Pareciera que lo hay en el tiempo y que cada punto del espacio-tiempo del universo puede establecer su coordenada temporal respecto al Big Bang, pero no su coordenada espacial respecto a ningún punto absoluto. Como cuando la Estrella Polar nos permite saber nuestra latitud, pero no nuestra longitud. El meridiano de Greenwich no es un punto fijo, es una convención para salir del paso longitudinal.

Pero no es así, el tiempo que separa del Big Bang a un acontecimiento del universo puede medirse de maneras distintas según quien haga la medida, y sin poder dar prioridad a uno u otro observador.

¿Tenemos algún punto fijo? ¿Hay alguna certidumbre a la que agarrarse? ¿Cuál es nuestra Estrella Polar? No lo será ningún punto del espacio ni del tiempo, sino una velocidad, la de la luz. Fiable y fija, es el punto fijo de la física moderna. No es que todo sea relativo, es que la velocidad de la luz es absoluta. El punto fijo al que deben inclinarse y rendirse todas las demás magnitudes. Tiempo, espacio, masa,..., todos deben cambiar para que la velocidad de la luz no cambie.

domingo, 15 de agosto de 2010

La Teoría de la Evolución: La Historia Más Asombrosa Jamás Contada. Parte 4

(Lowlight 4, publicado el 24/03/09

Darwin

Llegamos, por fin, a Darwin. Se cumple este año el bicentenario de su nacimiento y los 150 años de la publicación de El Origen de las Especies. No voy a repetir aquí su biografía. Está en cualquier enciclopedia y ya la sabéis: le aburría la medicina, iba para cura, se embarcó en el Beagle por un lustro, años más tarde escribió su famoso libro y acabó reconociéndose agnóstico. El mayor homenaje que se le puede hacer es entender sus ideas y la trascendencia de éstas.

Darwin, como Wallace, propuso que la evolución de las especies ocurre por un proceso que consta de:

1. Variabilidad entre los individuos de una especie.
2. Selección del mejor adaptado al medio.

Esta es la Teoría de la Selección Natural. Volvamos al ejemplo de los gemelos, pero supongamos ahora que no son idénticos. Así, uno de ellos será mejor corredor que el otro. Si en su medio es importante correr para huir de un depredador o para cazar una presa, entonces el mejor adaptado a ese medio será el que tenga más probabilidades de tener más descendencia. En el futuro, mientras correr rápido sea una ventaja, en cada generación, la progenie de los más rápidos será un poco más abundante. Finalmente, los más rápidos formarán un grupo distinto de los lentos. Serán una especie nueva. Los lentos pueden tener finales distintos: pueden extinguirse, evolucionar de otra manera, ver disminuido su número, ocupar un nicho ecológico distinto,…

¿Cuánto tiempo necesita la descendencia de los más rápidos para ocupar todo su nicho ecológico y desplazar hasta la extinción a los más lentos? Muy poco. Consideremos, por ejemplo, un ecosistema que sólo puede sostener a 10.000 individuos de una especie y que, justamente, esa es la población que lleva habiendo en las últimas generaciones. Típicamente nacerán más individuos de los se puedan alimentar. Si la población pasa de estos 10.000 algunos morirán hasta volver a ese número. En este equilibrio, la tasa de crecimiento de la especie es del 0%. Pongamos ahora que ser un poco más rápido permite a un individuo que su descendencia crezca al 1% (una tasa modesta) a costa del linaje de los más lentos. Si los más rápidos son, por ejemplo, dos individuos de una familia, harán falta sólo unos pocos cientos de generaciones para que prácticamente todos los individuos de esa especie sean descendientes de aquellos más rápidos. Esto se debe a la naturaleza exponencial del crecimiento. Una nadería en términos geológicos.

Para entender lo anterior, convendría recordar aquí que si empezamos una inversión con un euro y cada año doblamos la cantidad (un generoso interés del 100%), al cabo de un año tendremos 2 euros. En dos años, 4 euros. En tres años 8, luego 16, 32, 64, 128, 256, 512 y, al cabo de 10 años, 1.024. Es decir, el euro se ha multiplicado por 1.000 en 10 años. La descendencia de nuestros corredores no aumenta un 100% en cada generación, sino un humilde 1%. Su tasa de crecimiento es 100 veces más lenta que el ejemplo y, además, sus descendientes tienen que llegar a ser 10.000, de ahí que necesiten unos cuantos cientos de generaciones para copar su nicho en el ecosistema y no solo un par de decenas.

Una cosa importante de entender es que la variabilidad entre los miembros de una especie no puede ser muy grande, así que todo el proceso evolutivo debe ser gradual y cada paso debe constituir, por sí mismo, una ventaja.

En el ejemplo anterior está claro que ser un poco más rápido siempre puede ser una ventaja. Hay otros ejemplos menos claros. ¿Cuál es la ventaja de medio ojo? ¿o de media ala? La mayor crítica al darwinismo en sus tiempos no venía de teorías científicas alternativas (como el lamarckismo) sino de prejuicios no científicos. Esto era cierto entonces y lo es ahora. El argumento fue propuesto en su día por William Paley: si paseando por el campo encontramos un reloj abandonado, al examinar la precisión de su maquinaria y su propósito evidente de medir el tiempo, concluiremos que no puede haber llegado a existir por un procedimiento natural (como se esculpen las rocas por el viento, por ejemplo), sino que detrás debe haber un relojero. Esto mismo ocurre con los organismos vivos. Tal es su complejidad que solo un creador o un diseñador inteligente puede haberlos hecho. Eso dice Paley.

Por otra parte, ¿de dónde sale esa variabilidad entre individuos? ¿Qué dice Darwin a todo esto? Lo veremos en la próxima entrada.

Mis apostillas:

1. La objeción de que tal vez alguna complejidad no pueda ser explicada mediante cambios graduales es una buena objeción. Decir que si tal complejidad existe debe existir también un diseñador inteligente es una mala conclusión. Por dos razones. La primera, porque este diseñador inteligente será un deus ex-machina, puesto ahí para ocultar nuestra ignorancia y parar la investigación, y que no tendrá ningún poder de explicación puesto que hará lo que nos dé la gana decir que haga. La segunda, porque la explicación es más complicada que lo que pretende explicar. Un diseñador inteligente será más complejo que sus creaciones. En vez de explicar la realidad, la estaremos complicando.

2. Con todo, sería posible que alguien manipule genéticamente una especie y le haga dar un salto evolutivo. Ese alguien no tiene por qué estar fuera de este universo. Un extraterrestre puede haberlo hecho. La teoría de Darwin abre una línea de investigación, que es la de averiguar si sus conclusiones son congruentes con la realidad. Hasta ahora nadie ha pillado a un diseñador inteligente in fraganti y sí, en cambio, se han acumulado montañas de evidencias a favor de la selección natural (incluso se la ha pillado in fraganti). Si uno es coherente, con cada nueva evidencia, debería considerar más y más probable la selección natural y menos la existencia de tal diseñador. Los propios proponentes de esa idea cada vez tienen menos lugares donde meter al diseñador porque cada vez hay más lugares en donde la explicación naturalista es suficiente. Pero no se rinden. Al parecer están satisfechos con su diseñador menguante.

viernes, 6 de agosto de 2010

Zenón de Elea, Lewis Carroll y Feyerabend

(Lowlight 2, publicado el 28/02/09

Nuestra Historia Más Grande Jamás Contada tuvo como centro el movimiento de los cuerpos. Sin embargo, la historia del pensamiento nos muestra lo difícil que es tener una idea clara de lo que es el movimiento.

Para Heráclito todo estaba en movimiento y en continuo cambio (no se puede bañar dos veces en el mismo río), mientras que para Parménides, lo inmutable del ser era la clave de la realidad (el ser es y no puede no ser). Zenón de Elea era discípulo de Parménides y quiso echar una mano a la defensa de las tesis de su maestro. Desarrolló para ello una serie de argumentos que mostraban la imposibilidad del movimiento y, por tanto, del cambio. El más famoso es el de Aquiles y la tortuga. Si le daba ventaja en una carrera, Aquiles nunca podría alcanzar a la tortuga. Cuando llegara al punto de partida de la tortuga (A), ésta ya estará más adelantada (en B). Cuando Aquiles llegue al punto B, la tortuga habrá avanzado otro poco (hasta C). De esta manera habrá una serie infinita de recorridos que Aquiles tendría que completar antes de alcanzar a la tortuga. Una serie infinita solo puede ser recorrida en un lapso de tiempo infinito. Conclusión: Aquiles no alcanzará a la tortuga. Como esto ocurre para cualquier ventaja que tenga la tortuga, por pequeña que sea, se demuestra que el movimiento es imposible.

Es difícil saber si Zenón de Elea se creía realmente su argumento. Tal vez pensara que el mundo que llamamos real es sólo apariencia, y que esta apariencia es revelada por la razón, según sus argumentos. Aristóteles analizó las falacias en las paradojas de Zenón de Elea con resultado desigual, pero la anécdota atribuida a Diógenes el cínico, que se puso a caminar tras una lección de Zenón de Elea, mostrando que "el movimiento se demuestra andando", constituye su refutación más conocida. Pura razón práctica.

Propongo ver estos argumentos desde otra perspectiva (no digo que fuera la intención de Zenón de Elea, ya adelanto que no creo que sea el caso). Constituyen un ejercicio intelectual, una especie de adivinanza, un nudo (ayúdame a desatarlo, que escribió Lewis Carroll) que se propone al interlocutor: "Si eres tan listo, a ver si sabes encontrar la causa de la paradoja, pues solo si lo sabes hacer podremos creer que tu discurso sobre la realidad estará bien fundamentado." En este sentido soy amigo de las paradojas. No creo que cada uno tenga que saber resolverlas todas, pero sí que les reconozco su aspecto lúdico y su manera de hacernos reflexionar sobre nuestro raciocinio.

El propio Lewis Carroll planteó otra carrera entre Aquiles y la Tortuga. Ésta era una carrera lógica. En boca de la Tortuga, la primera proposición de Euclides dice:

(A) Dos cosas iguales a una tercera son iguales entre sí.
(B) Estos dos lados de un triángulo son iguales a uno tercero.

Por tanto:

(Z) Estos dos lados son iguales entre sí.

Aquiles se queja y dice que la última proposición debe ser llamada (C), pues se sigue a continuación de (A) y (B). La tortuga afirma que, antes de concluir (Z) hay que aceptar la lógica del silogismo. Es decir, hay que aceptar:

(C) Si se aceptan (A) y (B) debe aceptarse (Z).

Aquiles accede y cree acabada la nueva carrera. Pero esta no ha hecho más que empezar, ya que ahora debemos introducir:

(D) Si se aceptan (A), (B) y (C) debe aceptarse (Z).

(E) Si se aceptan (A), (B) (C) y (C) debe aceptarse (Z).

... ... ...

Según la tortuga, nunca se aceptará (Z), y así nace otra paradoja, esta vez sobre la imposibilidad del movimiento, no ya en el mundo real, sino en la propia esencia de la razón, en la lógica.

En tiempos más recientes, hay filósofos que nos han traído nuevos argumentos sobre la imposibilidad del movimiento, esta vez en el progreso de la ciencia. Por ejemplo, Feyerabend viene a decir:

(A) No existe un método científico. Para toda regla o método, encontramos excepciones en la historia de ciencia.

(B) Si queremos despojar al método científico de todas las reglas que se han transgredido, nos quedamos con que "todo vale".

(C) De lo anterior se deduce que la ciencia no está en mejor posición que otras construcciones sociales como para demandar un status superior.

(D) Se deduce también un relativismo cultural por el cual podemos admitir que ciertas creencias que son verdaderas para nosotros no lo son para otros. Estas creencias se refieren no solo a gustos o cuestiones morales, sino también a afirmaciones acerca de la realidad física. No hay posibilidad de definir criterios que definan la objetividad y la razón. Así que objetivamente no hay que elegir entre las afirmaciones de la ciencia y de la astrología, por ejemplo.

Feyerabend escribía con un lenguaje muy directo, pero poco claro. No es de extrañar que continuamente se quejara de que no le habían entendido, especialmente cuando escribió su obra "Contra el Método". Acusaba a sus críticos de no distinguir entre chistes, ironías, paradojas y las ideas centrales del libro. Es lo que tiene no escribir con claridad.

Además de Feyerabend, hay corrientes post-modernas, hermenéuticas, deconstructivistas, ... que emplean argumentos de este estilo para criticar a la ciencia. Algunas veces se la tacha de machista, otras de occidental y, por tanto imperialista, y así sucesivamente. El hilo conductor parece ser algo así como:

(A) La ciencia es un quehacer humano (o un discurso, o lo que sea).

(B) Por tanto no está exenta de los problemas de todo que hacer humano (o de todo discurso, ...).

(C) Por tanto, sus construcciones o teorías estarán sesgadas y reproducirán los esquemas de poder - o los prejuicios, o lo que sea - de la clase dominante - o de los hombres, o de occidente, pon aquí tu fobia favorita -.

Es decir, que si hubieran sido mujeres asiáticas quienes hubieran estudiado el movimiento de los cuerpos, la ley de la gravedad sería distinta. Bueno, tal vez no esa en particular, pero sí alguna otra ley o teoría científica. Aunque no sabemos cuál, no nos lo dicen, no hablan claro.

Veo todos estos discursos como veo las paradojas de Zenón de Elea o la de Lewis Carroll. El primero tal vez se creyó sus argumentos, el segundo no (Lewis Carroll era profesor de matemáticas y de lógica). Los pensadores que las proponen harían bien en tomarlas como lo que son y no como argumentos verdaderos. Se arriesgan a quedar en ridículo frente a un Diógenes moderno, o frente a un Sokal.

martes, 3 de agosto de 2010

La Tierra y su Dominios. "La Historia Más Grande Jamás Contada". Parte 6.

(Lowlight 2, publicado el 20/02/09)

Einstein

La Teoría de la Relatividad Especial

Einstein, el científico más famoso de todos los tiempos, propuso una teoría completamente revolucionaria que pondría a prueba toda nuestras intuiciones sobre el espacio, en tiempo, la masa y la energía, entre otras cosas. Y lo hizo basando toda la física en dos postulados:

1.- Las leyes de la física deben ser las mismas para todo sistema inercial. (En realidad, esto ya estaba en Galileo.)

2.- La velocidad de la luz es una constante universal.

El segundo postulado está diciendo que, a partir de ahora, no serán el espacio ni el tiempo los elementos primitivos de nuestra teoría, como lo era con Newton, sino la velocidad. Y no cualquier velocidad, sino la de la luz. Bueno, en realidad la de cualquier onda electromagnética. Como la velocidad de la luz no se acomoda al espacio y al tiempo de los distintos observadores en distintos sistemas de referencia (recuerda: el tren o la estación), serán el espacio y el tiempo de estos observadores los que se acomoden a las consecuencias de mantener la velocidad de la luz constante.

¿Y cuáles son esas consecuencias? Para responder conviene reformular los dos postulados anteriores en otros dos equivalentes:

1.- El tiempo es otra dimensión que añadir a las tres espaciales.

2.- Todo cuerpo se mueve a la velocidad de luz en el espacio-tiempo.

- ¿Qué?

- Tal como lo oyes.

Aclaremos lo de la dimensión del tiempo. No es que el tiempo sea igual que el espacio, sólo que, con las dimensiones del espacio, forma el Universo en el que estamos. Cuando tratamos el Teorema de Pitágoras en la Parte 2 de esta Historia Más Grande Jamás Contada vimos cómo calcular el desplazamiento al Norte si sabíamos el desplazamiento total y el desplazamiento al Este. En ese caso todos los desplazamientos se medían en kilómetros. Si una dimensión es tiempo, habrá que ver cómo pasamos de kilómetros a segundos. Para eso necesitamos dividir la distancia entre una velocidad. Si recorremos 100 Km a 50 Km/h tardaremos 100/50 = 2 horas. El siguiente postulado nos dice que será la velocidad de la luz la que usaremos.

Aclaremos eso de que todos nos movemos a la velocidad de la luz. Recordemos que no nos movemos en el espacio, sino en el espacio-tiempo. No nos extraña decir que todos nos movemos en el tiempo. Sin hacer nada, el tiempo pasa, y lo hace a la velocidad de la luz. Ahora, en lugar de decir que nos movemos en el tiempo, diremos que nos movemos en el espacio-tiempo. De hecho, lo que llamamos aumentar la velocidad en el espacio no es aumentar la velocidad en el espacio-tiempo, sino sólo alterar la dirección del movimiento (pasando del eje del tiempo al eje del espacio).

Veamos lo que ocurre cuando introducimos estos postulados en un sistema espacio-temporal. Para simplificar, supondremos que sólo tenemos una dimensión espacial. El eje vertical indica el tiempo y el horizontal el espacio. La flecha en el eje vertical indica el transcurso de un segundo, la del eje horizontal, 300.000 Km. Ambas indican cuánto se avanza a la velocidad de la luz, si se va sólo en una dirección.

¿Qué ocurre si una persona se desplaza en el espacio, no a la velocidad de la luz, sino a 100.000 km/s? Para fijar ideas, supongamos que tenemos a dos gemelos viajando por el espacio en la nave Enterprise, y que uno de ellos coge un transbordador de la nave y se aleja de ella a 100.000 Km/s. La flecha en dirección oblicua nos ilustra su movimiento por el espacio-tiempo. Esta flecha es igual de larga que las de los ejes (son vectores con el mismo módulo).

Resumamos. Tenemos un triángulo, en el que la hipotenusa mide 300.000 Km y un cateto mide 100.000. Por el Teorema de Pitágoras podemos calcular el otro cateto, cuya medida llamaremos C:
300.0002 = 100.0002 + C2
Resolviendo la ecuación tenemos que C2= 90.000.000.000 - 10.000.000.000, o bien

C2= 80.000.000.000, y de ahí

C = 282.842 Km.

Pero en el lado C tenemos tiempo, no distancia en el espacio, así que debemos transformar esos kilómetros en tiempo. Si 300.000 kilómetros son un segundo según la constancia de la velocidad de la luz, 282.842 Km. serán, por simple regla de tres, 0,94 segundos. Ese es el lapso de tiempo que avanza en el futuro el gemelo que se alejó del Enterprise a 100.000 Km/h. Esta velocidad está medida por el hermano gemelo que se quedó en la nave, es para este observador que el tiempo del móvil avanzará menos en el futuro.

Para el gemelo que se alejó, su transbordador es un sistema de referencia perfectamente válido. Según él, no se mueve, y no notará nada en su línea temporal. Aclaremos, sabe que ha encendido motores y que se aleja del Enterprise, pero una vez que alcanza los 100.000 Km/s está siguiendo, por la inercia, una trayectoria rectilínea a una velocidad constante. En este momento es tan acertado decir que el transbordador se aleja del Enterprise como decir que es el Enterprise el que se aleja del transbordador. Si el gemelo viajero da la vuelta y regresa a encontrarte con su hermano, lo encontrará más viejo, pero si el gemelo acerca el Enterprise para encontrase con su hermano, volverán a tener la misma edad.

Pongamos que ninguno acelera su nave para que se encuentren de nuevo. El gemelo que se alejó no nota nada en su línea temporal, pero su línea temporal está yendo más lenta que la del que se quedó en el Enterprise. Si mide la velocidad de la luz (de cualquier rayo de luz, venga de su nave o de cualquier otra), verá que sigue siendo 300.000 Km/s, así que le faltan 300.000 Km/s para acercarse a esa velocidad a pesar de que ya se aceleró hasta los 100.000 Km/s. Todo su esfuerzo no le ha servido para acercarse un ápice a la velocidad de la luz. Esta es la consecuencia de que su velocidad, con respecto a él mismo, es cero y de que la de la luz sea siempre la misma.

¿Cómo ve las cosas su hermano? Desde el Enterprise, su hermano mide la misma velocidad de la luz y mide la velocidad su alejamiento, 100.000 Km/s, así que, visto desde el Enterprise, el gemelo del transbordador ha alcanzado una tercera parte de la velocidad de la luz. No está mal.

Sigamos. El gemelo del transbordador sigue en su empeño en buscar la velocidad de la luz, así que vuelve a encender los motores, pero antes suelta una baliza como referencia (la baliza se moverá a 100.000 Km/s vista desde el Enterprise, pues conserva la misma inercia que el transbordador). Pongamos que el transbordador se acelera hasta alejarse de la baliza a otros 100.000 Km/s. ¿Qué ocurrirá?

-Desde la referencia de la baliza, el transbordador se aleja, efectivamente, a 100.000 Km/s.
-Desde el transbordador, su velocidad con respecto a sí mismo sigue siendo cero y la velocidad de la luz, 300.000 Km/s. Sigue sin acercarse.
-Desde el Enterprise ¿se le ve alejarse a 200.000 Km/s? Pues no.

Recordemos que el tiempo del gemelo del transbordador iba más despacio que el del Enterprise, así que, cuando el del transbordador acelera hasta sus 100.000 Km/s respecto de la baliza, se está alejando a una velocidad menor medida desde el Enterprise. Con un tiempo más lento necesitará más de un segundo de los suyos para recorrer 100.000 Km vistos desde el Enterprise. Así, el Enterprise le verá alejarse a menos de 200.000 Km/s. ¿Cuánto menos? Habría que repetir los cálculos como los de arriba. Obviaremos esta parte, pero observaremos que, en el triángulo de la figura, a pesar de que 100.000 Km/s. apenas ralentizan el tiempo (un segundo se convierte en 0,94), a medida que aumentamos la velocidad y la línea oblicua se acerca al eje del espacio vemos que la contracción del tiempo aumenta cada vez más (mucho más). Esto quiere decir que, a medida que el gemelo del transbordador aumenta la velocidad, su tiempo acaba ralentizándose muchísimo y lo que pare él es un nuevo aumento de 100.000 Km/s. acaba siendo apenas un aumento insignificante medido desde el Enterprise.

Sí, se dirá, pero sumando aumentos pequeños, podrá sobrepasar la velocidad de la luz. Pues, otra vez, no. A base de aumentos pequeños podrá acercarse cada vez más, pero nunca llegar, visto desde el Enterprise. Desde su transbordador seguirá sin acercarse nada. Una suma infinita de sumandos no tiene por qué ser infinita si cada sumando es una proporción del anterior. Así la suma de 1/2 + 1/4 + 1/8 + 1/16 + 1/32 + ... es exactamente uno. Uno el límite al que se acerca esta suma cada vez que se añade un sumando, pero que nunca sobrepasa. Esto le ocurre al gemelo del transbordador con su velocidad y la de la luz. Insisto, visto desde el Enterprise. Ese poco que le falta para acercarse a la velocidad de la la luz, visto desde el Enterprise, siguen siendo 300.000 Km/s vistos desde el transbordador.

Mis disquisiciones:

1.- Este moverse cada vez más rápido y no acercarse lo más mínimo a la velocidad de la luz me recuerda a la loca carrera de los personajes de Alicia, que tenían que correr lo más rápido que pudieran para quedarse en el mismo sitio. Algún aficionado a las profecías debería reivindicar que Lewis Carroll predijo la Teoría de la Relatividad, tendría más sentido que los disparates que se dicen de Nostradamus o del Apocalipsis.

2.- Hemos visto que acelerarse implica cambiar la línea temporal y que, con ello, cambia la velocidad. También implicará alterar la medida de las distancias y la medida de las masas (siempre en relación a las medidas de los que no se aceleraron con nosotros).

3.- Einstein no recibió el Premio Nobel por la Teoría de la Relatividad, sino por sus estudios sobre el efecto fotoeléctrico. No que nadie pensara que la Relatividad no fuera más importante, pero se pensaba que todavía había que hacer muchas comprobaciones para validarla. Así de cauto es el avance científico.

4.- Galileo y Einstein propusieron teorías que contradecían el conocimiento asentado hasta ellos (Aristóteles y Newton, respectivamente). Hay gente que propone teorías que contradicen lo que sabemos hoy acerca del mundo y que se reivindican en estos dos genios para insistir en sus propuestas. Estas personas deberían aprender la lección de que ni Galileo ni Einstein tuvieron problemas para convencer a los científicos coetáneos suyos, una vez que examinaron la evidencia. Sí tuvieron problemas para convencer a los no-científicos. Así de abierta es la mente científica y de cerrada la no-científica. Si, p.e., la homeopatía no es capaz de presentar esa evidencia, poco tiene para ampararse en estos dos genios. Afirmaciones extraordinarias requieren de evidencia extraordinaria. Galileo y Einstein cumplieron; homeópatas, parapsicólogos y otros esotéricos, no.

5.- Después de todo, tal vez Galileo y Einstein no contradijeron tanto a sus predecesores. Es cierto que poner a la Tierra en el centro del Sistema Solar es muy distinto que poner al Sol, pero si uno no sale de la Tierra, el modelo Geocéntrico es una buena aproximación a lo que observamos desde ella. En este sentido el modelo Heliocéntrico no es tan revolucionario (para las mediciones científicas, para los papas que juegan a ser Dios, creyendo saberlo todo, será otra cosa). Lo mismo ocurre con la física de Newton. Es una buena aproximación a la realidad cuando las velocidades son medianas, y lo es tanto que se sigue usando para enviar módulos a la Luna o a otros planetas del Sistema Solar.

jueves, 17 de septiembre de 2009

La Teoría de los Juegos. La Historia Más Lúdica Jamás Contada. Parte 2.


El nacimiento
Pocas teorías tienen un nacimiento tan preciso como la Teoría de los Juegos. Como dijimos en la entrada anterior, nace con la publicación del libro de John von Neumann y Oskar Morgenstern “The Theory of Games and Economic Behavior” en 1944. John von Neumann es el matemático que nos hemos encontrado más veces en este blog. Fue uno de los cuatro grandes del Instituto de Estudios Avanzados de Princeton (con Gödel, Einstein y Oppenheimer). Además de ser el padre de la Teoría de los Juegos y de participar en muchos de los avances de las matemáticas y la lógica del siglo 20, es el padre de la Informática, dio la formulación matricial de la Mecánica Cuántica, ayudó a diseñar las bombas atómica de hidrógeno, imaginó las máquinas autorreplicantes, participó en la RAND Corporation para asesorar sobre la estrategia que debían seguir los EEUU en la guerra fría, y muchas cosas más. Oscar Morgenstern es un economista brillante de la época, al que no se le recuerda por mucho más.

El libro trata de dos tipos de juegos. Uno, los juegos no cooperativos, pero ciñéndose solo a los de suma cero y, el otro, los juegos cooperativos. En los juegos no cooperativos cada jugador hace básicamente lo que le da la gana. No hay nadie a quien rendir cuentas, no hay comunicación entre los jugadores y no se puede firmar ningún tipo de acuerdo con los demás. Cada uno elige independientemente de los otros.

En los juegos cooperativos sucede lo contrario. Los jugadores llegan a acuerdos y estos se respetan. Bueno, esta es la interpretación. En la práctica, en la Teoría de los Juegos cooperativa se proponen soluciones “razonables” a las que podrían adscribirse los jugadores a la hora de repartirse un excedente. Lo que se considera razonable depende de cómo se entiende el poder de cada individuo y de cada posible coalición en la que pueda participar. La entrada sobre la Razón Moral en Bancarrota es sólo un ejemplo de este tipo de juegos. Hay muchísimos más y, en cada uno de ellos hay muchas propuestas de solución interesantes, razonables y, la mayoría de las veces, incompatibles entre sí. (Para desesperación de los racionalistas morales, por seguir metiendo el dedo en la llaga.)

Los juegos de suma cero son aquellos, como el póquer, el ajedrez o el parchís, en los que lo que uno gana es a costa de los demás. La suma de las ganancias es cero. Otro tipo de juego de suma cero puede ser la política de las superpotencias. Si se añade un país al área de influencia de una se elimina del área de influencia de la otra. Este ejemplo se puede llevar al extremo de la guerra. El territorio conquistado al enemigo es ganancia propia.

Los juegos de suma cero son los que presentan un mayor conflicto. No hay cooperación posible. Lo que no ganas, lo gana el oponente. Lo que gana el oponente, lo pierde uno. Hay que salir a ganar y hay que atacar el primero, y con más fuerza.

Habiendo analizado los juegos de suma cero y habiendo sido uno de los científicos más importantes en el Manhattan Project, von Neumann estaba convencido de que la Guerra Fría era un juego de suma cero en el que había que hacer precisamente eso, atacar primero, antes de que la Unión Soviética desarrollara su arsenal atómico. No sabemos qué hubiera pasado de haberse seguido su consejo. En su defensa hay que señalar que luego desarrolló el concepto de Destrucción Mutua Asegurada.

En cualquier caso, la guerra no suele ser un juego de suma cero (puede haber grandes pérdidas para ambas partes) y la Unión Soviética consiguió su bomba atómica no mucho después que los estadounidenses. Interpretar la Guerra Fría como un juego distinto de los juegos de suma cero puede tener consecuencias muy distintas que interpretarla como un juego de suma cero. Lo malo es que, con el libro de von Neuman y Morgenstern en la mano no sabemos cómo analizarlos.

Para ello necesitamos a Nash, el de la mente maravillosa, con su equilibrio. Pero queda una pequeña sorpresa que ver antes. En la entrada siguiente.

martes, 28 de julio de 2009

Las piezas lego de la naturaleza. La historia más extraña jamás contada. Parte 9.


La función de onda

Pongamos que un cuerpo de un gramo se mueve a 10 metros por segundo hacia la derecha desde un punto cero. Al cabo de un segundo estará a 10 metros y al cabo de dos, a veinte. En general, al cabo de t segundos estará a 10 x t metros (escribamos 10t m). Una vez establecido el punto cero y la dirección en que se mueve el cuerpo, podemos dar cuenta de su velocidad y su posición a través de la siguiente manera de resumir la información:

Velocidad = 10 m/s

Posición = 10t m

Esta podría ser la función de onda (muy simplificada) del cuerpo que examinamos. Las cosas pueden ser más complicadas. Por ejemplo, la velocidad puede cambiar con el tiempo, primero es 20 m/s, luego se acelera a 40 m/s, luego se frena, y así sucesivamente. Puede ser que, tanto la velocidad como la posición, sean aleatorias. Por ejemplo, puede ser que la velocidad sea 10 m/s hacia la derecha, 20 m/s hacia la izquierda o 30 m/s hacia la derecha, con idénticas probabilidades. Esto no quiere decir que la velocidad sea una de esas tres (y no sepamos cuál) todo el rato. Quiere decir que, cada vez que medimos la velocidad, nos dará uno de esos tres valores. Si la medimos 100 veces, por ejemplo, podríamos encontrar que 32 veces es 10 m/s, 35 veces 20 m/s y 33 veces 20 m/s. ¿Y si medimos la posición? Tendríamos también una serie de valores que podríamos detectar, por ejemplo podríamos encontrar al cuerpo a 5, 10 ó 15 metros a la derecha o a 5 ó 10 metros hacia la izquierda.

En general, la función de onda de una partícula subatómica es algo todavía más complicado. Para empezar, no mide directamente nada, es sólo un artefacto matemático que contiene toda la información que se puede extraer acerca de la partícula cuando está en un determinado sistema o estado (un electrón en un orbital atómico, un fotón pasando por una ranura,…). A partir de esa ecuación se puede ir obteniendo una u otra información según unas determinadas reglas:

1. La información se obtiene en forma de probabilidad. Por ejemplo, podemos obtener la probabilidad de que la partícula esté en una región determinada del espacio, o que esté dentro de un rango determinado de velocidades. Para encontrar esta información, hay que trabajar con el cuadrado de la función de onda.

2. Si medimos una variable, la función de onda pasa a tener ese valor para esa variable, y ya no se comporta probabilísticamente para ella. Este es el famoso colapso de la función de onda, que da lugar a la interpretación de Copenhague de la mecánica cuántica.

3. Si queremos medir dos variables, la precisión con que midamos una de ellas es menor cuanto mayor sea la precisión con la que midamos la otra. Esta relación está determinada por una nueva ecuación, que es la que rige el principio de indeterminación de Heisenberg que vimos en la parte 7 de esta historia más extraña jamás contada. En nuestro ejemplo de arriba, quiere decir que, si medimos con precisión la velocidad (p.e., 10 m/s a la dcha.) entonces no sabremos nada de la posición. Si nos conformamos con saber si la velocidad es 20 m/s a la dcha. o 20 m/s a la izda. entonces podremos saber algo más de la posición (por ejemplo, que esté a 10 m a la dcha. o 5 a la izda.)

4. Si tenemos una partícula en dos estados posibles, se puede asociar una función de onda a cada estado, llámense F1 y F2. Si no hacemos ninguna medida para saber en cuál de los dos estados está la partícula, estará en el estado “superpuesto” que tiene asociada la función de onda correspondiente a la suma de las dos anteriores: F1 + F2. Esta es la famosa superposición cuántica que da origen a la paradoja del gato de Schrödinger. Esto tiene una consecuencias extrañas. Si queremos saber la probabilidad de que una variable (velocidad, posición,…) esté en determinado rango sin pretender saber el estado del sistema, deberemos usar (F1 + F2)2 para nuestros cálculos. Sin embargo, si hacemos una medida para conocer el estado y luego queremos calcular la probabilidad de la misma variable que antes deberemos usar (F1)2+ (F2)2, puesto que sabremos que está en el estado descrito por F1 o en el descrito por F2, y en cada caso usaremos el cuadrado de la ecuación para encontrar la probabilidad. Antes de saber en qué estado estará, asignamos la suma para tener en cuenta la incertidumbre antes de hacer la medida. Como todos recordaremos de nuestras matemáticas del álgebra elemental, (F1 + F2)2 es distinto de (F1)2+ (F2)2. Aplicado esto al experimento del electrón que puede pasar por dos ranuras, en el primer caso tendremos el comportamiento como onda y, en el segundo, el comportamiento como partícula.

Dejo los comentarios para otra entrada, que esta ha tenido lo suyo. He intentado contar las cosas como creo que me hubiera gustado que me las explicaran para tener una idea de las piezas lego-cuánticas.

lunes, 20 de julio de 2009

Las piezas lego de la naturaleza. La historia más extraña jamás contada. Parte 8.

La desigualdad de Bell

No es el caso ahora cómo, pero para un electrón es posible medir el valor de una variable (por ejemplo, el espín, que puede ser “arriba” o “abajo”) para distintas orientaciones. Así, por ejemplo, se puede observar que, para una orientación de 45º, el espín es “arriba” o que, para una orientación de 0º el espín es “abajo”. Si tenemos 100 electrones, la tabla siguiente nos muestra un ejemplo de cómo podría ser un conjunto de medidas del espín según tres orientaciones posibles. 

 

45º Arriba

45º Abajo

 

 

45º Arriba

45º Abajo

0º Arriba

10

14

 

0º Arriba

12

15

0º Abajo

11

13

 

0º Abajo

12

13

90º Arriba                                                            90º Abajo

 Así, el número 10 de la casilla primera diría que se han observado 10 electrones que, para las tres orientaciones de 0º, 45º y 90º, el espín siempre es “arriba” (up). El número 15 de la casilla arriba a la derecha del todo significa que se han observado 15 electrones cuyo espín es “arriba” cuando se mide para una orientación de 0º y “abajo” para las otras dos.

Resulta evidente que el número de electrones (0º arriba, 45º abajo) (14 + 15) más el número de electrones (45º arriba, 90º arriba) (10 + 11) debe ser mayor que el número de electrones (0º arriba, 90º arriba) (10 + 14), puesto que estos últimos incluyen sólo una parte de los primeros y también sólo una de los segundos. O eso parece.

El caso es que, aunque no sepamos qué número de electrones está en cada casilla, la desigualdad tiene que darse. Sin embargo, cuando hacemos el experimento con millones y millones de electrones, la desigualdad no se cumple, y el número de electrones (0º arriba, 45º abajo) más el número de electrones (45º arriba, 90º arriba) es menor que el número de electrones (0º arriba, 90º arriba). Es como si, al medirlos, les cambiáramos las características. Es decir, como si, cada vez que medimos el espín de los electrones para una determinada orientación estuviéramos cambiando los números que se ponen en las casillas o, lo que sería lo mismo, como si estuviéramos cambiando el espín de los electrones.

Esta es la famosa desigualdad de Bell, la que implica que no hay causas ocultas que nos son desconocidas y que son el origen de la indeterminación de las variables en la mecánica cuántica. Lo que dice esta desigualdad es que, a todos los efectos, el espín no está definido (no es que no lo sepamos) cuando no se mide y que, cuando se mide y se le da un valor, la naturaleza da ese valor de acuerdo con unas reglas muy extrañas, siguiendo unas distribuciones de probabilidad para las que no intuimos ninguna posible explicación, sólo que son las que son.

Mis aclaraciones

1. Llevamos varias entradas diciendo que no se pueden observar dos características de una partícula con precisión y ahora resulta que podemos medir el espín en dos orientaciones distintas. ¿Qué engaño es este? La cuestión no es baladí, y es la que impidió dar respuesta clara a las objeciones de Einstein y otros sobre las variables ocultas. La clave está en el “entrelazamiento” de partículas. Podemos tener un sistema de dos electrones y podemos saber que su espín para una determinada orientación es nulo. Como el espín es una medida de momento angular (giro, para entendernos) y como el momento angular debe conservarse, si un electrón tiene espín 1/2, el otro debe tener espín -1/2. De esta manera podemos examinar el espín en una orientación directamente en un electrón y el espín en otra orientación en el electrón entrelazado.

2. El entrelazamiento añade una nueva dimensión en las cosas extrañas de la mecánica cuántica. Si un electrón no tiene definido el espín hasta que se mide ¿cómo sabe su “gemelo” que le toca definirse de la manera congruente con la definición que dio el otro?

3. Obviamente, los electrones no saben nada. Lo único que ocurre es que el Universo sólo existe satisfaciendo ciertas reglas, como esta de conservar el momento angular. A nosotros nos parece que esto debería estar pre-definido en cualquier Universo realmente existente. Pero parece que el Universo no está para satisfacer nuestros deseos y que el futuro no está determinado hasta que no se producen interacciones, con las que la realidad va tomando su sitio pieza a pieza. El Universo, en suma, no es tan real como quisiéramos, pero sí es tan real como hace falta para que sea.