domingo, 27 de julio de 2014

El mercado de sangre (1)


Esta es la primera parte de la traducción de mi artículo de julio en Mapping Ignorance.

Slonim et al. (2014) [1] discuten los problemas de la asignación de sangre en diferentes países y sugieren un mecanismo que puede mejorarla. El presente artículo es un resumen de sus principales ideas.

En los países ricos la sangre se obtiene en su mayor parte mediante donaciones voluntarias. La manera en que se recoge varía de país a país. Algunos tienen monopolios estatales, otros conceden el monopolio a la Cruz Roja, otros tienen bancos de sangre que funcionan independientemente y así sucesivamente. El sistema particular que se usa no parece producir diferencias en los resultados, según se estudia en Healy (2000) [2]. En países más pobres la sangre se obtiene típicamente de donantes a los que se paga y de familiares y amigos del paciente que la necesita. La Organización Mundial de la Salud (OMS / WHO) (2011) [3] estima que el 36% de los países logra cubrir sus necesidades con donantes voluntarios, mientras que otro 36% cubre menos de la mitad de las suyas por esta vía.

La situación es diferente en el caso de la extracción de plasma y de productos derivados del plasma. Algunos países ricos lo recogen de donantes voluntarios, pero otros pagan a los donantes. En los EEUU, por ejemplo, el 81% de los productos derivados del plasma se extraen de donantes a quienes se paga, para el año 1970 se convirtió en el mayor proveedor mundial de plasma y en 2004 extraía casi el 70% del plasma mundial, del cual el 40% se usaba en América del Norte, el 32% en Europa y el 19% en Asia.

La seguridad de la oferta de sangre generó un debate en los 60 y los 70. Un libro tuvo una influencia especial, The Gift Relationship (Titmuss, 1971 [4]). En este libro se argumentaba que pagar por la sangre podía, por una parte, atraer a donantes de alto riesgo y, por otra, reducir las donaciones que realizan los individuos motivados por razones altruistas. No se hizo ningún estudio para verificar estas afirmaciones, pero aún así los políticos y la OMS aceptaron estas preocupaciones y, desde 1975, la OMS recomienda que el 100% de las necesidades de sangre sean cubiertas por donaciones voluntarias. La preocupación por la seguridad no hizo sino incrementarse en las siguientes décadas por culpa del SIDA y de la enfermedad de las "vacas locas". Un último argumento en contra de pagar por la sangre es ético, y tiene que ver con la posible explotación de los donantes. Esta actitud coloca las transacciones de sangre a cambio de dinero en el mismo grupo que otras transacciones consideradas repugnantes, como la venta de órganos, venderse uno mismo como esclavo o ofrecer servicios sexuales por dinero. Sin embargo, el hecho de que el pagar por plasma no evoca ninguna de estas actitudes hace difícil la actitud de quien quiera invocar este tipo de razones cuando se trata de sangre. La única diferencia significativa entre la extracción de sangre y de plasma es que, siendo la extracción de plasma un proceso más complicado, requirió de medidas de seguridad extra mucho antes de que fueran introducidas en la extracción de sangre.

El diferente tratamiento entre el plasma y la sangre tiene algunas consecuencias inevitables, previstas en la Teoría Económica: el precio del plasma fluctúa para adecuar la oferta a la demanda (Flood et al., 2006 [5]), mientras que el precio de las unidades de sangre que se pagan a las agencias que la recogen o que se cobra a los hospitales no lo hace (Toner et al., 2011 [6]).

Referencias

1. Slonim R. & Ellen Garbarino (2014). The Market for Blood, Journal of Economic Perspectives 28, 177-196.

2. Healy, K. 2000. Embedded Altruism: Blood Collection Regimes and the European Union’s Donor Population. American Journal of Sociology 105, 1633-57.

3. World Health Organization. 2011. Global Database on Blood Safety.

4. Titmuss, R.M. 1971. The Gift Relationship. London: Allen and Unwin.

5. Flood, P., Wills, P., Lawler, P., Ryan, G., and Rickard K.A. 2006. 2006 Review of Australia’s Plasma Fractionation Arrangements. Australian Government Department of Health.

6. Toner, R.W., Pizzi, L., Leas, B., Ballas, S.K., Quigley, A., and Goldfarb, N.I. 2011. Costs to Hospitals of Acquiring and Processing Blood in the US. Applied Health Economics and Health Policy 9, 29-37.

-----------------------------------------------------------------------------------------------------------
Hace tres años en el blog: Odiosa comparación (2).
-----------------------------------------------------------------------------------------------------------

jueves, 24 de julio de 2014

Sobre buenos y malos


En la mayoría de los sistemas judiciales (no sé si en todos), en cada caso hay una parte defensora y otra acusadora. A cada parte se le dota de incentivos para cumplir su misión lo mejor posible. El abogado defensor se juega su reputación y su dinero. Lo mismo el fiscal. De este antagonismo se espera que salgan a relucir toda la información y pruebas relevantes para que el juez pueda dictaminar con justicia. Sería absurdo decir que el abogado es el bueno y el fiscal el malo, o al revés. Ambos son necesarios para que el sistema funcione según lo esperado.

Imaginemos ahora (síganme aquí durante un rato, luego se pondrá en contexto y se matizará mucho) que la relación de las diversas opiniones en una sociedad responde en por lo menos una parte a la dinámica del párrafo anterior. Por ejemplo, la izquierda propone medidas y lucha por alcanzar objetivos sin tener demasiado en cuenta las restricciones, mientras que la derecha se preocupa por las restricciones y pasa de luchar por ideales (aquí se puede leer sobre esto con más elaboración, en "los objetivos y las restricciones"). O por poner otro ejemplo, los nacionalistas periféricos piden más concesiones del gobierno central, quien se ocupa de rechazar las menos realistas o imposibles (más ejemplos de esta dinámica aquí, en "sé realista, pide lo imposible"). Así, los progresos habidos en la construcción del estado del bienestar desde la segunda guerra mundial son resultado de negociaciones y pactos, pero también de un tira y afloja entre quienes quieren más y quienes quieren menos. ¿De quién ha sido la construcción, de los que más reivindicaban, incluso reivindicando lo imposible o de los más comedidos, incluso siendo comedidos en lo posible? El resultado es fruto de la interacción y la dinámica social. Si la historia es como estoy diciendo, no tiene sentido hablar de buenos y malos, ni de mayor catadura moral de unos o de otros. Claro que cada individuo, adscrito a una de las posiciones, verá claramente la necesidad del papel de él y de los suyos en todo el proceso. Tendrá razón, pero solo la mitad.

Ahora viene la matización a lo anterior y el contexto. No quiero con el párrafo anterior abogar por la tesis de que los avances sociales hayan sido así todos ellos o una parte importante. Tampoco quiero señalar ninguna equidistancia moral entre izquierda y derecha o entre nacionalismo periférico y gobierno central. Lo que quiero señalar es lo siguiente: mucho del lenguaje y del argumentario de gentes de izquierda y derecha (y de otros grupos que se oponen entre sí) parecen responder a la dinámica anterior. Gentes de izquierdas pidiendo lo imposible en temas económicos (políticas sin contrapartida presupuestaria, por ejemplo), gentes de derechas haciendo lo propio (políticas sin análisis sobre su funcionamiento, también por ejemplo). Sindicatos que piden más poder para el trabajador, empresarios que piden más poder para sí mismos, ecologistas que quieren todo 100% natural y renovable (whatever it means),...

Si en estos discursos uno toma la postura de pedir cuanto más mejor para una parte, que ya se encargará la otra de pedir para sí, ese uno estará abandonando la idea de construir un discurso completo, y estará eliminándose como referente para hacer diagnósticos y propuestas sensatas que sirvan para organizar mejor la sociedad y no debería extrañarse de que los demás no den demasiado pábulo a posibles ínfulas de superioridad moral que crea le otorga su ideología.

-----------------------------------------------------------------------------------------------------------
Hace tres años en el blog: El poder de los mercados.
Hace cinco años en el blog: El consumismo: algunas reflexiones.
-----------------------------------------------------------------------------------------------------------

sábado, 19 de julio de 2014

Sí, pero... ¿y el conceto?


En un debate sostenido en otro lugar, uno de los contertulios se quejaba del excesivo formalismo de la Física actual. En particular, se refería a la falta de discusión de los conceptos que se usaban y a la actitud de muchos físicos que, simplemente, buscan la operatividad de sus modelos y no quieren perder el tiempo en charlas de café. Antaño los físicos buscaban interpretaciones para entender sus conceptos (como las interpretaciones de la mecánica cuántica según el colapso de la función de onda o según los multiversos), hoy se conforman con formular unas ecuaciones y resolverlas.

Respondí así:

Pues yo no entiendo demasiado bien en qué consiste la queja. La Física es más difícil y complicada que lo que creíamos con Newton, ¿qué le vamos a hacer? El Universo no está para que los humanos lo entendamos ni el cerebro humano ha evolucionado para entender el Universo. Sí ha evolucionado para entender e intuir unas cuantas cosas que tienen que ver con la realidad y usamos y desarrollamos ese bagaje para extenderlo a todo lo demás, hasta donde se deje la realidad y nos lo permita el cerebro. En ese bagaje están las matemáticas y los sistemas formales que hemos podido desarrollar. Gracias a ellos podemos ir mucho más allá de nuestra mera intuición, con la que creemos entender cosas. La complejidad del mundo físico hace que no seamos capaces de desarrollar intuiciones para muchas de las cosas que descubrimos. El problema no es el hiperformalismo salvaje (?), sino esa complejidad. Da la impresión de que cuando se piden conceptos empíricos se está pidiendo en realidad conceptos intuitivos o directamente observables o algo así. No sé por qué eso debe ser una exigencia. No tenemos por qué poder intuir u observar directamente nada. Ojalá pudiéramos, pero parece que lo más que podemos hacer en muchos casos es proponer conceptos que explican mejor las cosas que observamos y tirar para adelante. La empiria está en esas observaciones. ¿Tiene alguien una teoría mejor para explicar las cosas que observamos en los aceleradores de partículas que la que ahora hay con no-sé-cuantas partículas subatómicas? Pues adelante. Mientras tanto, su función de onda será lo que más nos acerque a la realidad.

Tal vez llegue el día en que encontremos intuiciones para cosas que ahora son solamente ecuaciones, tal vez no, pero me temo que eso vendrá desde la Física, no desde la Filosofía, pues serán los físicos los que mejor entiendan y manejen esos conceptos. Por otro lado, no es asunto de Epistemología el aclarar los conceptos de la ciencia, sino dar cuenta de cómo cada ciencia es capaz de hacer lo que hace y proponer modelos de cómo conocemos, encontrar regularidades en las distintas ciencias y encontrar diferencias (p.e.: tal ciencia aspira a que sus leyes sean universales y tengan en cuenta todas las causas, mientras que tal otra no podrá llegar a tanto y será particular y aproximada).

No creo que a estas alturas nadie confunda modelo con realidad. Tampoco importaría mucho si, haciéndolo, sigue respetando el método científico que, entre otras cosas, le impone la consideración de hipótesis alternativas, lo que siempre es una puerta abierta a pensar que la realidad podría no ser como el modelo.

El enlace anterior de la Wikipedia hacía referencia a la Teoría de Cuerdas. Ese es otro tema. Esta teoría tiene que mostrar que puede hacer cosas mejores que la actual y ser validada empíricamente. Se puede y se debe criticar que se acepte sin esa validación. No sé si algún físico en particular lo hace, pero lo que parece es que la comunidad de los investigadores en la ciencia Física no lo hace.

Se ha hablado de la Física especulativa. Mientras se entienda que es especulativa, no hay problema. Es bastante inevitable que en las ciencias que han desarrollado una alta formalización haya este tipo de especulación. Las revistas científicas están llenas de modelos teóricos formales que no llegan a ninguna parte. El formalismo permite esta especulación, es decir, permite esta fecundidad en la formulación de hipótesis.

Ante el reproche de que "alguien ha de intentar aclarar las conceptos más allá de lo puramente instrumental" continué:

Lo dices como si ahora no lo hiciera nadie y creo que no es justo. Los físicos sí intentan aclarar conceptos. Fueron los físicos los que si interpretaban aclaraban que si onda o partícula, y ellos quienes propusieron las dos interpretaciones más famosas de la mecánica cuántica. Con esto último, por ejemplo, lo que pasa según creo es que no hay mucho más que decir respecto de lo que ya se dijo. Las interpretaciones no llegan a dar con un experimento que las resuelva. Hasta entonces hay que seguir tirando de ecuaciones sin engañar a nadie diciendo que esta interpretación o esta otra es la buena.

Yo, desde luego, ajeno a la Física, pero curioso, he podido leer de físicos muchos intentos de aclaración de conceptos (no así de filósofos, pero tal vez estoy sesgado en mis lecturas). La energía como una etiqueta con un número como manera de mantener cierta contabilidad, la velocidad de la luz como velocidad constante a la que se mueve todo en el espacio-tiempo, las simetrías como manera de entender las operaciones permitidas en el grupo matemático que forman las partículas elementales,...

-----------------------------------------------------------------------------------------------------------
Hace tres años en el blog: Por qué sexo y por qué en parejas.
-----------------------------------------------------------------------------------------------------------

miércoles, 16 de julio de 2014

Los mitos de la razón. La Mano Derecha y sus Reglas.


Todas las mitologías, además de hacer referencia a seres portentosos, a lugares utópicos y a objetos con propiedades mágicas, dedican historias y alegorías a distintas partes del cuerpo de algún personaje, o incluso a partes de cuerpo sin personaje (una sonrisa sin gato no es tan extraña como decía Alicia). Así, en la mitología griega tenemos como ejemplo el Talón de Aquiles; en la cristiana, el Santo Prepucio; en la judía, la Melena de Sansón; en la periodística, la Garganta Profunda; el Ojo de Sauron en la tolkiana, y así sucesivamente. Entre las partes del cuerpo más mitificadas está la mano, como bien evidencian las leyendas de la Mano de Dios, la Mano Negra, la Mano de la Familia Addams o la Manu Militari.

Los relatos de la ciencia no son ajenos a esta tendencia. Además de la famosa Mano Invisible están las Reglas de la Mano Derecha, mito que comienza con los escritos de John Ambrose Fleming, un ingeniero que recopiló o inventó la primera narración conocida sobre esta interesante leyenda. Se cuenta cómo la mano derecha, recogidos los dedos meñique y anular y extendidos los demás, consigue simular una pequeña realidad, un mundo en sus manos (no confundir con el mito homónimo de las sagas hollywoodienses, con el que no guarda relación). Se trata de la generación de electricidad. Si el pulgar señala la dirección en la que se mueve un conductor en un campo magnético cuya dirección marca el índice, entonces la corriente eléctrica inducida se mueve en la dirección del dedo corazón.

Desconocida en los ciclos newtonianos anteriores, la electricidad se añade a la mitología científica y el mito de su creación recrea el origen del mundo: el campo magnético en movimiento induce una corriente eléctrica y una corriente eléctrica produce a su vez un campo magnético. Cada uno es la causa de la existencia del otro y ambos existen porque sí, como el mundo, solo por dar gusto a las simetrías de la Física.

Esta Regla de la Mano Derecha referida a los generadores finalmente viene a ser una versión particular de un mito más general y extendido: la Regla de la Mano Derecha para el producto vectorial: si el vector x está representado por el índice y el vector y por el corazón, su producto vectorial seguirá la dirección del pulgar. Véase cómo esta dirección existe en una tercera dimensión distinta a las de los vectores originales, y que debe existir porque sí, por exigencias de las Matemáticas.

-----------------------------------------------------------------------------------------------------------
Hace tres años en el blog: Las propiedades emergentes y otras compañías.
-----------------------------------------------------------------------------------------------------------

domingo, 13 de julio de 2014

La Teoría de Juegos explica cómo juegan los profesionales (2)


Esta es la segunda parte de la traducción de mi artículo de junio en Mapping Ignorance. Debe leerse la primera para entender esta:

Los siguientes estudios vienen del fútbol. Chiappori et al. (2002) [2] usan datos de 459 tiros de penalti en las ligas francesas e italiana durante un periodo de tres años. Igual que en el saque del tenis, las estrategias del tirador y del portero pueden considerarse simultáneas a todos los efectos. Los autores no pueden realizar tests individuales puesto que ningún jugador está presente en cinco o más tiros, así que todo el análisis se realiza a nivel agregado. Los autores consideran tres estrategias: izquierda, centro y derecha. Comoquiera que en portero rara vez se queda en el centro realizan un supuesto: si tanto el tirador como el portero eligen "centro" la probabilidad de gol es cero. Una consecuencia del comportamiento según el equilibrio de Nash en estrategias mixtas (ENEM) es que la ganancia esperada de cada una de las posibles opciones usadas debe ser la misma (si una opción otorga una probabilidad de gol mayor entonces debe ser usada con más frecuencia). Los autores encuentran que los datos están de acuerdo con esta predicción.

En un estudio posterior, Palacios-Huerta (2003) [3] realiza un análisis más completo. Al igual que en Chiappori et al. (2002), usa todos los tiros de penalti durante un periodo y unas ligas especificados de antemano para evitar sesgos (Walker y Wooders, 2001, eligieron solo partidos de tenis largos, que pueden ser debidos a que los jugadores jugaban especialmente bien según la teoría). Además, recoge más datos: 1471 tiros de penalti entre septiembre de 1995 y junio de 2000 de las ligas profesionales de España, Italia, Inglaterra y otros países, incluyendo 22 tiradores y 20 porteros que aparecen en 30 tiros o más, y que pueden ser usados para realizar tests estadísticos a nivel individual. Antes de realizar el análisis principal, el autor realiza otros sobre las hipótesis del modelo. Primero, hay jugadores diestros y zurdos, así que el modelo usa el término "derecha" para indicar el lado natural del jugador. Ambos tipos de jugadores se agrupan en solo uno al no encontrarse diferencias estadísticamente significativas entre ambos en las probabilidades de marcar. Segundo, la estrategia "centro" se agrupa con la del lado natural como respuesta a las declaraciones de los jugadores, que consideran que son tan hábiles en esta opción como en su lado natural. De todas maneras, la estrategia "centro" se usa muy pocas veces y los resultados no cambian según se agrupe o no. Finalmente, el trabajo incluye una simulación usando el método de Montecarlo para asegurarse de que los tests empleados tienen la potencia estadística suficiente para distinguir entre el comportamiento de equilibrio frente a otro distinto.

Palacios-Huerta (2003) encuentra que las dos predicciones de la teoría del equilibrio se cumplen tanto en el nivel agregado como en el individual: las probabilidades de gol son las mismas para ambas estrategias (alrededor del 80%), y no hay correlación serial en la elección de la estrategia ni en los penaltis que tienen lugar durante el juego regular ni en las tandas de penaltis para deshacer empates, lo que indica que los tiros son tan aleatorios como pueden ser. Dadas las diferentes probabilidades de marcar, el equilibrio de Nash predice que el tirador debe usar su lado natural un 58,01% de las veces y que el portero debe ir hacia el lado natural del tirador un 61,46% de las veces. Las frecuencias observadas son el 57,69% y el 60,02%, respectivamente. Es importante notar que en esta clase de juegos, esto es suficiente para caracterizar la teoría del ENEM.

Más recientemente, Azar y Bar-Eli (2011) [4] confirman los resultados principales para un conjunto de datos distinto, completando el análisis con tres estrategias (derecha, centro e izquierda) y contrastando cómo se ajustan los datos a la teoría del ENEM frente a otras alternativas para elegir las estrategias basadas en la información de las distribuciones marginales de los tiros o de los saltos del portero. Los autores muestran que la teoría del ENEM explica mejor los datos.

Referencias:

1. Walker, M., and Wooders, J. 2001. Minimax Play at Wimbledon. American Economic Review 91, 1521-38.

2. Chiappori, P.A., Levitt, S., and Groseclose, T. 2002. Testing mixed-strategy equilibria when players are heterogeneous: the case of penalty kicks in soccer. American Economic Review 92, 1138-1151.

3. Palacios-Huerta, I. 2003. Professionals play minimax. Review of Economic Studies 70, 395-415.

4. Azar, O.H., and Bar-Eli, M. 2011. Do soccer players play the mixed-strategy Nash equilibrium? Applied Economics 43, 2591-3601.

-----------------------------------------------------------------------------------------------------------
Hace tres años en el blog: Demasiado grandes para caer.
-----------------------------------------------------------------------------------------------------------

viernes, 11 de julio de 2014

La Teoría de Juegos explica cómo juegan los profesionales (1)


Esta es la primera parte de la traducción de mi artículo de junio en Mapping Ignorance:

Juegas a "piedra-papel-tijeras" con alguien. ¿Cuál es la mejor estrategia? Por supuesto, depende de lo que haga tu oponente. Si es alguien que siempre elige "piedra", entonces la mejor jugada es elegir "papel". Pero si tu oponente no es tan ingenuo y busca también jugar su mejor estrategia, ¿qué debes hacer? Lo primero que hay que notar es que uno debe ser impredecible. Lo siguiente es calcular las probabilidades de elegir cada una de las opciones. En este juego, puesto que lo que se gana es independiente de con qué elección se ha ganado, se puede mostrar fácilmente que se debe elegir cada una de las opciones un tercio de las veces. Dada esta manera de jugar, tu oponente no puede hacer nada mejor que seguir también esta estrategia, lo mismo que te pasará a ti. Esta situación de equilibrio en que los jugadores eligen aleatoriamente su acción se llama equilibrio de Nash en estrategias mixtas (ENEM).

La noción de equilibrio de Nash es central en la Teoría de Juegos y tiene un papel importante a la hora de analizar problemas económicos y sociales. Sin embargo, el hecho de que la teoría sugiera que hay situaciones en las que los agentes deben decidir aleatoriamente su curso de acción es problemático. ¿Juegan los agentes aleatoriamente de acuerdo con la teoría? Si lo hacen ¿sus probabilidades son las marcadas por la teoría?

Ha habido varios enfoques para estudiar este asunto. Algunos se basan en investigación empírica para encontrar datos ejemplos de aleatoriedad en la vida real, otros en encontrar mejores descripciones de la interacción que evite el uso de las estrategias mixtas y aún otros intentan comprobar la teoría en el laboratorio. La realidad es que no tenemos muchos datos sobre la evidencia empírica, mientras que los datos de laboratorio no avalan bien la teoría. En este artículo examinaremos un enfoque distinto: veamos lo que ocurre cuando se juega un deporte en una situación real. Los deportes nos ofrecen escenarios en los que comprobar la teoría al estar muy bien estructurados, ser simples y tener jugadores que son expertos en lo que hacen.

El primer estudio de este estilo se llevó a cabo por Walker y Wooders (2001) [1]. En este trabajo los autores estudian el comportamiento de los jugadores de tenis en Wimbledon, concretamente en la fase de saque y resto. En el tenis, el saque es una parte muy importante del juego. A pesar de que quien saca puede hacerlo apuntando a cualquier parte de la pista contraria en la que el oponente espera, la mayoría de los saques caen en dos categorías: izquierda (I) o derecha (D). Los saques son muy rápidos y el jugador que resta debe intentar adivinar por dónde le llegará la pelota y moverse hacia ese lugar en el momento en el que quien saca la golpea. Si el que saca juega, digamos, "izquierda" y el que resta juega "derecha", hay una mayor probabilidad de que el que saca gane el punto comparado con la situación en el que el que resta hubiera elegido también "izquierda". Al contrario que en el juego de "piedra-papel-tijeras", el ganador (el que saca, si engaña o el que resta, si adivina) no lo es sino en términos estadísticos, y las probabilidades de ganar dependen de las estrategias: "izquierda-derecha" puede dar a quien saca una mayor probabilidad de ganar el punto que "derecha-izquierda". Un partido de tenis permite a los autores completar una tabla con todas las estadísticas relevantes para todas las combinaciones de estrategias en el "saque-resto": I-I, I-D, D-I y D-D. Debido a la asimetría en las probabilidades de ganar, el equilibrio no implica que ambas estrategias, izquierda y derecha, se jueguen con la misma probabilidad. El estudio estadístico revela que los jugadores profesionales juegan sus estrategias según las proporciones de la teoría del ENEM. Sin embargo no juegan esas proporciones de una manera realmente aleatoria, puesto que cambian con más frecuencia de lo que deberían.

Referencias:

1. Walker, M., and Wooders, J. 2001. Minimax Play at Wimbledon. American Economic Review 91, 1521-38.

Enlace relacionado: Servicio de Nadal, resta Federer.

-----------------------------------------------------------------------------------------------------------
Hace tres años en el blog: Las propiedades emergentes.
Hace cinco años en el blog: Al monte se va con botas: La paradoja del examen sorpresa.
Y también: Una imagen distorsionada vale menos que 435 palabras.
-----------------------------------------------------------------------------------------------------------

domingo, 6 de julio de 2014

Paradojas de Venezuela: pobres resultados y alto índice de bienestar subjetivo


En una entrada reciente de Nada es Gratis, Jesús Fernández-Villaverde muestra cómo todos los indicadores muestran que Venezuela ha avanzado menos que sus vecinos. Muy mal antes de Chávez, cuando las cosas iban a peor, y con menos logros que los demás cuando las cosas iban a mejor. (Yo hice unos cálculos menos completos hace un tiempo.) Menos crecimiento, menos reducción de la desigualdad y de la pobreza, menos progreso en sanidad, menos aprovechamiento del petróleo, menos desarrollo humano,... ¿Todos los índices? Todos no. Resulta que en el índice de bienestar subjetivo da un país bastante feliz. Nos lo cuenta valeri:
valeri julio 2, 2014 a las 11:57 
Sorprendentemente si uno mira los índices de bienestar subjetivo que aparecen en las tablas del índice del planeta feliz (http://www.happyplanetindex.org/data/) encuentra (no se para que año, el informe es de 2012) que los siete primeros países con índice de bienestar subjetivo más alto (sobre 10) son:
Denmark 7,77
Canada 7,65
Norway 7,63
Switzerland 7,52
Netherlands 7,50
Sweden 7,50
Venezuela 7,48.
Ajustado por la desigualdad este índice para Venezuela es de 7 y para España, por ejemplo, de 5,8. ¿Por qué la gente dice que está tan bien en Venezuela? Saludos.
Hice este comentario:
José Luis Ferreira julio 3, 2014 a las 21:13 
Jesús: 
No tengo nada que añadir a los datos económicos (completan unos que publiqué hace tiempo), así que querría abundar en las dos paradojas detectadas: (i) que haya quien defienda el modelo y (ii) que el índice de felicidad sea tan alto. Me da la impresión, es solo una hipótesis, de que mucha gente pobre y de clase media-baja se siente parte del proceso de toma de decisiones y antes se sentía ajena a ello (sea o no verdad, lo que importa es su sensación). “Lo estamos haciendo mal, pero somos nosotros los que lo hacemos”, podría explicar la percepción de empoderamiento (traducción de empowerment). A partir de ahí, el dudar de las cifras para creerse que no se están haciendo tan mal las cosas, o echar la culpa a otros permitirá una mayor justificación. ¿Algún sociólogo en la sala?

Jesús me envió más tarde este enlace sobre la metodología de los índices de felicidad:

Using happiness scales to inform policy: Strong words of caution

Ante lo cual añado mi última reflexión:

Habrá que ver si el caso de Venezuela da un ránking alto por los problemas señalados en el artículo (y es un caso parecido a Ghana) y es casualidad que sea justamente la Venezuela del chavismo o bien es otra cosa como el posible empoderamiento sentido por gran parte de la población (o alguna otra explicación). Podría estar bien mirar si hay datos de cómo quedan estas encuestas antes y después de cambios de régimen de este estilo (Bolivia, Ecuador,...).

Pues eso, ¿por qué en Venezuela el índice de bienestar subjetivo es tan alto? ¿Cuánto durará?

-----------------------------------------------------------------------------------------------------------
Hace tres años en el blog: La trama de la SGAE.
Hace cinco años en el blog: Las piezas lego de la naturaleza. La historia más extraña jamás contada (6).
-----------------------------------------------------------------------------------------------------------