Normalidad y Linealidad

Acá mi último video, espero les guste. Favor comentar dudas.

La paradoja Simpson

marge.0.0

En este post voy a hacer un breve resumen de un articulo que hace rato tenía pendiente de leer. El paper de Kievit, Frankenhuis, Waldorp,  & Borsboom (2013) hace una revisión sobre la paradoja Simpson en psicología y explican como es más de lo que creemos en el pensamiento convencial y por supuesto en psicología.

La “Paradoja Simpson”, recibe su nombre por el trabajo de Simpson E. H. (1951). Ahí mostró que una relación encontrada en una población podía ser inexistente o contraria cuando era analizada por los subgrupos que la componian.

A continuación un ejemplo:

fpsyg-04-00513-g0001
Extraido de Kievit, Frankenhuis, Waldorp,  & Borsboom (2013)

En este grafico se muestra que si solo analizamos la dosis de un medicamento y la probabilidad de recuperarse de una enfermedad sin tener en cuenta el genero encontraríamos una relación positiva.  Sin embargo, cuando nos vamos del bosque a los arboles, y hacemos un zoom en los subgrupos nos encontramos que tanto para hombres y mujeres sucede todo lo contrario ¡Que ha más dosis peor! ¡Disminuye la probabilidad de recuperación! Dicha equivocación podría traer graves consecuencias practicas en el tratamiento, de ahí que siempre es importante considerar terceras variables involucradas en la posible busqueda de un efecto.

Imaginse entonces tambien las implicancias a nivel pais y a nivel social. Los gobiernos podrían tener la idea de que la aplicación de cierto programa de salud ha mejorado la salud a nivel pais al analizar los datos globales, recomendando aumentar las sesiones financiadas por el programa. Sin embargo, si se explorará el detalle por cada subgrupo podría ser que lo mejor es ir la menor cantidad de veces posibles. Es decir, presupuesto y salud de las personas en riesgos por malas decisiones basadas en un negligente análisis de los datos.

Veamos ahora el siguiente grafico.

fpsyg-04-00513-g0004
Extraido de Kievit, Frankenhuis, Waldorp,  & Borsboom (2013)

Este ejemplo puede tener peores consecuncias mientras en general consideramos una relacion positiva, en los subgrupos nos encontramos que para uno es positivo y para el otro negativa la relación.  Si esto fuera un tratamiento lo que producirá es que estaríamos ayudando a un grupo creyendo que ayudamos a ambos, pero no solo al otro grupo no se le ayuda, sino que incluso se le empeora.

Debida a estas terribles consuencias inferenciales Kievit, Frankenhuis, Waldorp,  & Borsboom (2013) elaboran una “guía de sobrevivencia a esta paradoja” divida en tres etapas: Prevención, Diagnostico y Tratamiento

Prevención

  1. -Proponer explicitamente el mecanismo de la relación que estamos buscando, determinando en que nivel se presume opera (entre grupos, dentro de los grupos, dentro de las personas)
  1. -Analizar cambios individuales a traves del tiempo
  2. -Diseños experimentales

Diagnostico

  1. Explorar visualmente los datos.
  2. Analizar con Test de intependiencia condicional dividiendo por subgrupos (variables categoricas)
  3. Evaluar homocedasticidad. Esto es, revisar si la diferencia (el error) entre lo predicho por el modelo y los datos obtenidos es similar entre los diferentes grupos.
  4. Analisis de Cluster: lo que permite encontrar ciertos patrones identificando subgrupos.

Tratamiento

  1. Analizar datos buscando la presencia de clusters
  2. Correr analisis de regresión que cuantifican la relación bivariada en cada cluster
  3. Testear estadísticamente si el patron dentro de los clusters se desvia significativamente y en que dirección del patron identificado a nivel de todos la muestra en estudio (datos agregados en vez de por subgrupos).

Los autores luego hacen un demostración práctica de estos pasos y alientan a no seguir tomandose esta paradoja como una mera curiosidad estadístico sino algo a tener contemplado en cualquier investigación en psicología.

Por mi parte, yo tuve la oportunidad de conocer esta paradoja en mi

image

 Magister, pero en todo el pregrado de psicología jamas fue mencionado ni como parte de los cursos metodológicos y estadísticos. Simplemente se repetía la idea de que “hay que ajustar las regresiones por posibles variables confusoras que crean relaciones espurias”, entonces con la idea que quedamos era que había que meter todo lo que pudieras al sofwtare y que el detectará que variable entraba y se quedaba. Pero ese no debe ser el mensaje, la enseñanza es que debemos usar la teoría psicologíca y estadística para pensar y planificar nuestros analisis.

Referencia

Kievit, R. A., Frankenhuis, W. E., Waldorp, L. J., & Borsboom, D. (2013). Simpson’s paradox in psychological science: a practical guide. Frontiers in psychology4, 513. doi:10.3389/fpsyg.2013.00513

Azar, Destino, Tarot y Causalidad

La-torre

En esta oportunidad voy a destripar algunas ideas estadísticas y de inferencia causal que están detrás de algo tan popular en nuestra cultura: El tarot. Una de los puntos interesantes es que creo que su capacidad para impresionar y seducir a la gente se basa en dos campos con mucha falencia educativa en la población: la probabilidad y la psicología.

El tarot, a mi parecer, secude porque las combinaciones improbables parecen necesariamente provocadas, sus valor se reafirma con sesgos  de confirmación a recordar y divulgar los casos en que se acertó sin hacer comparaciones con los fallos. Y en último lugar, que cualquier tipo de “consejería” puede ser un tipo de terapia.

Para explicar algunas de estas ideas presentaré esta vez dos programas gratuitos “R” y “Daggity”

Los software estadísticos permiten, en general, realizar los mismos análisis. Al menos en lo que respecta a las técnicas más frecuentemente usadas. Sin embargo, dentro de estos, el programa R  nos permite mayor customización de ciertas operaciones que los tradiciones vienen por defecto. Además este programa es gratuito y libre en su código, así una comunidades internacional mes tras mes van creando sus propias actualizaciones que vienen en paquetes de descarga para que el resto de la comunidad lo pueda usar también libremente. Yo me encuentro actualmente transitando desde los software donde prima el uso del mouse e ir haciendo click en lo que queremos hacer (SPSS especialmente, el más popular en ciencias sociales). De ahí pase a STATA donde el menu están árido que queda más cómodo la sintaxis, y de ahí he ido usando JASP y JAMOVI, los que luego de hacer click tienen un modo en que puedes ver como se vería eso que hiciste en forma de código para el programa R.

Una función que tiene el programa R (recomiendo usarlo en su versión Studio, es más amigable) nos permite simular variables y muestreos.

Por ejemplo, acá, lo que estoy haciendo es decirle al programa que cree una variable que se va a llamar tarot, cada uno de los nombres de esas variables es el nombre de uno de los arcanos mayores.

##Crear directamente la variable tarot como variable cadena.

tarot <- c(“El Mago”, “La Sacerdotisa”, “La Emperatriz”,”El Emperador”, “El Sumo Sacerdote”,
+ “El Enamorado”, “El Carro”, “La Justicia”, “El Ermitaño”, “La Rueda de la Fortuna”,
+ “La Fuerza”, “El Colgado”, “La Muerte”, “La Templanza”, “El Diablo”, “La Torre”,
+ “La Estrella”, “La Luna”, “El Sol”, “El Juicio”, “El Mundo”, “El Loco”)
>
> #Seleccionar una carta al azar
>
> sample(tarot, 1, replace = FALSE)
[1] “El Colgado”

Me salió “El colgado” ¿será bueno o malo?. ¿Bueno y si quiero sacar 3 cartas, para que según una de las tiradas más famosas en el tarot, me hablen de pasado, presente y futuro?. Lo único que tengo que cambiar es la última linea del código

> sample(tarot, 3, replace = FALSE)
[1] “La Fuerza” “El Juicio” “El Sumo Sacerdote”

Ahora me salió 3 nuevas cartas. ¿Serán estas mejores? No lo sé, ayúdenme con la interpretación.  Con este segundo resultado explicaré que quiere decir esta linea de codigo. La primera parte “sample” indica la función a ser utilizado. En este caso la permite seleccionar muestras (sampling = muestreo), luego el numero 3 indica de que tamaño será mi muestra, en este caso puse 3 porque quiero tres cartas. Por último, “replace” hace referencia a que si queremos o no remplazo de los casos muestrados, en otras palabras si la primera carta que sacamos, luego vuelve a ser barajada en el mazo antes de volver a sacar una nueva carta. Como no queremos que haya alguna probabilidad de que la primera carta nos vuelva a salir, le ponemos “=FALSE”, para que no se haga el remplazo (no sea devuelta al mazo y revuelta en él)

Punto importante a detenernos acá es que el Sampling que hace el programa asume que al revolver las cartas todas quedan con la misma probabilidad de ser elegidas cada vez que hacemos un ensayo, lo mismo si devolvemos la cartas luego de sacarlas. En la vida real, no podemos estar seguros que el tarotista manipule de alguna forma la manera que revuelve las cartas para hacer que unas sean más probables que otras a hacer elegidas por el consultante. Sabemos muy bien que los ilusionistas son expertos en manipular aquello. Pero de no haber ningún tipo de truco de juego de manos o inducción, cada carta debería tener la misma probabilidad de aparecer, esto es 1/21.

De acuerdo a lo anterior, a larga, si todas las cartas tienen la misma probabilidad, deberían aparecer la misma cantidad de veces. Con R podemos simular esta idea:

Paso 1

#Crear una función que permita hacer el proceso con distintos números de cartas

draw <- function(x) {
sample(tarot, x, replace = TRUE)}

Esta función la llamaré “draw”  y consiste en el código que usé antes. Así podre usar el código y repetirlo tantas veces quiera

Paso 2

#Usar la función para repetir el proceso tantas veces como deseemos

y <- replicate(100, draw(1))

Entonces creare una variable que se llamará “y” donde se guardarán los resultados de cada vez que haga la función, en este caso diciendole que se sacará 1 carta y que se hará 100 veces (replicate).

Luego para gratificarlo

Paso 3

#Graficar resultados

tabley <- table(y)

barplot(tabley, ylim=c(0, 50), ylab=”N”, col=”black”,
main=”Cartas elegidas”, las=2)

y obtengo lo siguiente:

Rplot01

Según este grafico la cartas mas frecuentes son la sacerdotisa y la muerte, luego de 100 veces que sacamos cartas independientemente. ¿Será esto un presagio del 2020? ¿quizás por un lado significa el predominio del feminismo, y por otro la guerra entre EEUU e IRAN/K ??

Pero hagamos el mismo ejercicio y ahora hagamoslo 500 veces para estar más seguros.

y <- replicate(500, draw(1))

tabley <- table(y)

barplot(tabley, ylim=c(0, 50), ylab=”N”, col=”black”,
main=”Cartas elegidas”, las=2)

Rplot2

 

Ahora ganó el carro y la justicia.

¿y si lo hacemos cinco mil veces? Para estar más seguros

y <- replicate(5000, draw(1))

tabley <- table(y)

barplot(tabley, ylim=c(0, 50), ylab=”N”, col=”black”,
main=”Cartas elegidas”, las=2)

Rplot3

Y acá recién ya se empieza a ver la tendencia que esperábamos a la larga, las frecuencias de las cartas comienzan a equilibrarse.

Vamos ahora a un siguiente nivel. ¿Cuál es la conexión entre el resultados de las cartas y nuestro futuro? Para intentar responder a esta pregunta necesitaremos visualizar nuestros supuestos causales, y para eso hay toda una teoría y métodos. Judea Pearl es un los grandes representantes de esta temática (Pearl & Mackenzie, 2018) ,pero también pueden encontrar buenos artículos en español (Werlinger & Cáceres, Dante, 2018)donde hacen una buena revisión de porque es un tema esencial en estudios observacionales y porque meter muchas variables en un modelo de regresión múltiple y dejar que la maquina decida.

Representemos la idea como un modelo con el recurso Daggity. Este software lo podemos usar tanto en linea como descargarlo también en nuestro computador. De la misma forma tiene conexión con el programa R. Pero el potencial de este software no es visual, ya que para eso nos bastaría Paint. Lo interesante es que de acuerdo a modelo que representes (lo supuestos causales que estás asumiendo) el programa te indica que que ajustes estadísticos son necesarios para estimar el efecto que tiene tu variable independiente principal con la dependiente

 

dagitty-model (5)
Modelo 1

El modelo 1 indica que la variable presente causa la variable futuro. la dirección causal es indicada por la dirección de la flecha.  Acá el presente no causa la cartas elegidas, sino con nuestro futuro con el que están conectadas, y que por el cual nos hablan de lo que lo sucederá.

De acuerdo a Daggity, este me indicó en una de sus ventanas de resultados al elaborar mi modelo que para estimar la correlación o efecto entre el presente y el futuro no es necesario ajustar por el resultado de mi tirada en el tarot. En otras palabras, para conocer cuanto influye realmente mi presente en mi futuro no es necesario considerar si en las cartas me dice que es bueno o malo.

Otro posible modelo sería el siguiente:

dagitty-model (7)
Modelo 2

En este modelo la tirada es resultado de nuestro presente, el que causa el futuro. Esta forma no están absurda. Muchas veces que queremos conocer una consecuencia, pero no tenemos cómo medir la variable que la predice directamente, en ese caso recurrimos a una tercer variable la cual es causada por la variable predictora y está altamente correlacionada.  En este modelo, si metemos los datos a un software estadístico y hacemos una correlación entre la tirada y el futuro, encontraríamos una relación significativa, sin embargo podríamos ingenuamente creer solo viendo esos resultados que entonces las cartas causan el futuro, que si las cartas salen mal, y mi futuro sale mal; entonces la cartas parecerán las culpables. Así podríamos caer en el absurdo, si no tenemos este modelo en mente que si buscamos una manera de elegir las mejores cartas o hacerlo muchas veces hasta quedarnos con las que nos gusten nuestro futuro mejorará.

¿Cuál seria el resultado de múltiples tiradas independientes? Si las cartas aparecen en relación a nuestro futuro, y nuestro futuro es uno solo, entonces múltiples tiradas deberían arrojar el mismo resultado,  al menos la misma interpretación. Por el contrario, si sacamos 100 veces 3 cartas, y obtenemos 100 interpretaciones distintas de 100 tarostistas independientes. ¿Significa que tengo 100 futuros? ¿o que la mayoría de ellos fueron charlatanes y uno solo era un/a real maestr@? En ese último caso la probabilidad de equivocarnos al obtener una adivinación correcta sería de 0,01, o es lo mismo que tener una taza de adivinaciones erradas de 99%

¿Y por qué elegí esos últimos números? No fue casualidad. Pues porque usualmente lo que esperamos en ciencia es que cumplamos el criterios estadístico de que la probabilidad de equivocarnos en nuestra estimación sea de menos de un 0,01, o que tengamos un 99% de confianza.

Así que, tarea para la casa. Descubrir la tasa de error de los tarotistas… bueno si que tiene algún sentido, más que el pedagógico para practicar con las probabilidades. En conclusión, en este post he abordado desde donde puntos de vista un mismo aspecto que distingue la ciencia del misticismo: La transparencia. Tanto el uso de R y compartir los códigos usados para realizar los análisis permiten que cualquiera pueda intentar replicar el proceso científico y llegar a sus propias conclusiones sobre la validez de los resultados, por otro lado, el uso de diagramas causales nos obligan a transparentar cuales son las relaciones causales que estamos asumiendo entre las variables, más que simplemente refugiarnos en eufemismos y fingir que solo buscamos correlaciones cuando de hecho queremos hacer inducir a creer en cierto vinculo causal.

De eso se trata la ciencia, más de la transparencia en su proceso y que de lo incuestionable de sus conclusiones

 

 

 

Referencias para profundizar

Judea Pearl and Dana Mackenzie. 2018. The Book of Why: The New Science of Cause and Effect (1st. ed.). Basic Books, Inc., USA

Werlinger, Fabiola, & Cáceres, Dante D.. (2018). Aplicación de grafos acíclicos dirigidos en la evaluación de un set mínimo de ajuste de confusores: un complemento al modelamiento estadístico en estudios epidemiológicos observacionales. Revista médica de Chile146(7), 907-913. https://dx.doi.org/10.4067/s0034-98872018000700907

Incendios ¿Son pirómanos la causa?

Recomparto una reflexión mía del verano del 2017:

Teniendo en cuanta la contingencia actual de lo incendios en Chile, que estos son de origen humano, y la serie de personas que han sido inculpadas por los incendios, vale la pena aclarar cuándo se puede hablar de un pirómano. No por provocar un incendio intencional podemos caracterizar a alguien como piromano, tampoco por provocar en repetidas ocasiones incendios. La piromanía, como un trastorno de control de impulso (según el DSM-V), exige que el acto incendiario no sea explicado por un retardo mental, demencia, trastorno antisocial de personalidad o psicosis. El piromano o la piromana, tiene el acto incendiario como fin y no como un medio, es una motivación del sujeto y no por una coerción externa (ej: voces que le ordenen quemar cosas), ni tampoco como acto de terrorismo, ni por el placer que le produce ver sufrir a las personas. El placer esta en el fuego mismo. Por lo cual, la piromanía en estrico rigor es un fenómeno muy raro, incluso entre las personas que provocan incendios (Lindberg, et al, 2005) (Burton, et al, 2012). Llama además la atención que la investigación cientifica internacional es escasa con respecto a la conducta incendiaría y la piromanía (Gannon & Pina, 2010). El modelo de Jackson (1987) sugiere que la conducta incendiaria está presente particularmente en un grupo desventajado socialmente, son personas con poca eficacia social, , autodesprecio, abuso de drogas. Jackson (1987) lo explica con las siguientes palabras: ” Es un intento desesperado por generar por cualquier cambio en las circunstancias de su vida”. donde conductas alternativas para enfrentar sus problemas actuales no existen o son inhibidas.
Así, podríamos pensar, que el problema actual en Chile, es un problema en primer lugar humano, que no se soluciona metiendo a personas a la cárcel. Entre tantas teorías conspiracionistas que circulan sobre el origen de lo incendios podría sugerir una nueva, que no se queda en el mero trastorno de una persona, sino en comprender que circunstancias sociales pueden llevar a una persona a cometer este tipo de actos. Una sociedad fragmentada, en donde las personas sufren en silencios dolores e injusticias, abandonos que congelan el espíritu y encuentran en las llamas quizás unos segundos para recibir atención genuina, compasiva, una chispa, una oportunidad. ¿Por qué… qué persona, en su sano juicio, satisfecho con su vida, con relaciones personas cálidas y afectuosas… desearía eliminar todo en llamas?

 

Referencias

Gannon, Theresa A.Pina, Afroditi (2010). Firesetting: Psychopathology, theory and treatment. Aggression and Violent Behavior, 15 (3). pp. 224-238. ISSN 1359-1789. doi:10.1016/j.avb.2010.01.001)

Jackson, H.F., Glass, C. and Hope, S. (1987), A functional analysis of recidivistic arson. British Journal of Clinical Psychology, 26: 175-185. doi:10.1111/j.2044-8260.1987.tb01345.x

Lindberg, N., Holi, M.M., Tani, P. et al. (2005). Looking for pyromania: Characteristics of a consecutive sample of Finnish male criminals with histories of recidivist fire-setting between 1973 and 1993. BMC Psychiatry, 5, 47  doi:10.1186/1471-244X-5-47

Paul R. S. BurtonDale E. McNielRenée L. (BinderFiresetting, Arson, Pyromania, and the Forensic Mental Health Expert.

Big Data, K-Pop y Mon Laferte

A ver, respecto al tema del día #Bigdata, creo que da pie para explicar una de las máximas más repetidas en ciencia “correlación no implica causalidad” . No es raro toda la confusión genera la intepretación de los datos, cuando la discusión sobre ambos conceptos no esta extendida, más cuando Karla Rubilar usa la palabra “influencia” para referirse a las TENDENCIAS o patrones encontrados en twiteos. O cuando hay personas a las que se les llama “Influencer”. En concreto lo que parece haber hecho el estudio (imagino, porque no se ha aclarado la metodología) es identificar múltiples asociaciones (redes), y ver cuales cuentas generaban más me gusta y/o retwiteos (difundir o promover cierto pensamiento, dada la interpretación que hace el gobierno o “inteligencia”). Cuentas con muchos seguidores se les da el nombre de “influencer”,y se piensa influencian en la población. Ahora, ¿eso causa movimientos sociales? probablemente no. ¿Cual es la diferencia entre asociación, influencia o causalidad? Normalmente las dos primeras son eufemismos para no develar nuestros supuestos causales.
Los datos solo son datos, nuestra intepretación los puede o no transformar en información para las preguntas que nos hacemos. Pero quiero creer que en el informe oficial se explica todo en términos descriptivos y de tenencias, luego los políticos pusieron las relaciones causales donde quisieron verlas. Pero que lo que twitee Mon laferte, o los fans de K-pop es innegable se transforma en Trending Topic muy fácilmente.

En palabras de Titiunik (2015) : “However, the availability of big data per se does not constitute a structural breakthrough in our ability to make causal inferences. This is not because big data is limited but rather because the accumulation of scientific knowledge ultimately requires a theory of how and why phenomena occur as well as a research design to make valid causal inferences about the theory’s empirical implications”

Lo que la estadística tiene que enseñarnos sobre el análisis de datos económico

A continuación, les dejo un post escrito por un autor invitado, Andrés Beltrán G. Psicólogo Clínico.

——————————————————-

En el contexto nacional, es común encontrarse con frases como: Chile es un país muy rico, tiene un PIB y PIB per capita más alto de la región. Además tiene otros indicadores bastante buenos comparados con sus vecinos e incluso países de la OCDE, mantiene un indice de desigualdad entre alto y moderado, etc”. Todas estas afirmaciones son ciertas, pero solo en parte. A continuación explicaré el problema que tiene analizar indicadores macro económicos en forma agrupada y no segmentada (al final del ejemplo que presento a continuación quedará más claro a que me refiero).

En Chile el 50% de los trabajadores recibe 400.000 pesos al mes (algo así como 500 dolares) y el 70% recibe 550.000 pesos (algo así como 700 dolares) El ingreso promedio es de 515.000 pesos Chilenos. Algunos podrán decir “wow que bien, 500 dolares mensuales suena fabuloso. El problema es que el presentar solamente ese dato no permite comprar para cuanto alcanza ese salario en el contexto nacional. Puede que en tu tierra eso alcance para mucho, para Chile….más adelante lo veremos.

(Fuente amable: https://www.eldesconcierto.cl/2018/07/18/el-70-de-la-poblacion-gana-menos-de-550-mil-pesos-y-la-brecha-de-genero-persiste/.

La fuente original es del Instituto Nacional de Estadística: https://www.ine.cl/prensa/detalle-prensa/2017/07/25/ingreso-laboral-promedio-mensual-en-chile-fue-de-$517.540-en-2016.

Ahora, es común que se la prensa diga “Hey pero Chile es un país muy rico!, tiene un PIB per capita de 15.923 dolares”. Analicemos mejor este dato.

Si solamente nos quedamos con el PIB per capita, estamos asumiendo que un ciudadano promedio gana 20 millones de pesos chilenos al año, en otras palabras cerca de 1,7 millones al mes. Entonces, acá uno se encuentra con algo que no calza. Anteriormente dijimos que el sueldo promedio era de 515.000 pesos chilenos y que el 70% de los trabajadores ganan 550.000 mensuales. Esta es la diferencia entre analizar el ingreso de forma estratificada vs con el PIB per capita. La información el PIB per capita es tres veces más alta que el sueldo promedio de los trabajadores o para ser más dramáticos cerca de 300% más que el sueldo promedio!.

La moraleja es la siguiente: No siempre la renta per cápita es capaz de mostrar de manera absoluta y veraz el auténtico nivel de vida de un ciudadano en un país determinado. En términos estadísticos, el PIB per capita se incluye dentro de lo que se conoce como “la dictadura del promedio”.

Fuente: https://datos.bancomundial.org/indicador/NY.GDP.PCAP.CD?locations=CL

Si bien el ejemplo anterior puede ser burdo, nos sirve para desmontar , entender y saber interpretar algunos indicadores macro-económicos. La mayoría de estos indicadores se basan en datos agrupados, tomando en consideración al total de la población.

<Los indicadores económicos más comunes, expresan lo que la gente dice que expresan?>

Lo interesante viene al momento de pensar que sucedería con el indice de calidad de vida, por ejemplo, si a la muestra tomada, le quito el 10%, 20%, o X% superior. El indice se mantendría igual?. Esto levanta la pregunta sobre ‘Son los indices económicos mayormente usados sensibles a la distribución de la riqueza, o más bien dicho a la distribución de las variables a analizar o al segmento población que se estudia?.

Lo anterior podría ser un argumento para sostener que “La desigualdad en el ingreso es un problema”. En realidad, no se puede sostener eso. Por ejemplo, si tomamos al 20% más pobre de la población, multiplicamos sus ingresos en 20, y hacemos lo mismo con el 20% más rico, la desigualdad se mantiene contante (no cambia) pero las personas tendrían mejor acceso a bienes y servicios. La desigualdad en la distribución como valor absoluto no es un problema económico, lo es en términos éticos cuando nace la pregunta “Hasta que punto es justo que una persona en la misma empresa gane 10, 20 o 100 veces más que el de menores ingresos”, pero eso sería harina de otro costal. Lo anterior, no deja de ser importante en la medida que se relaciona con la percepción de injusticia y la probabilidad de acceso a servicios básicos.

Lo que planteo es que la desigualdad en la distribución (en el caso de Chile), obliga a realizar un tipo diferente de análisis, si lo que se quiere es mostrar variables sobre “¿cómo vivimos los chilenos?”. La pregunta anterior es una pregunta capciosa, ya que en rigor no se podría responder, solamente se puede decir “el 20% inferior tiene estas condiciones, el 50% tiene estas otras, el 1% superior en ingresos tiene estas.

Así es amigos míos, las clases de estadística tienen bastante utilidad para comprender fenómenos del mundo real.

—————————