Black Hole, Meta-Analysis and the True-effect in the darkest side of psychology-galaxy.

One of the most important news in the past month was the first “photograph” of a Black Hole. However, this is not a photograph in the same sense that we use daily. This image was obtained with the combination of information multiples telescope and algorithm to reconstructing the lack of information from the recolected data, through multiple measures, in diferent times and places.

In the week when T.V and internet still talk about this scientific event I had that explaining to a class of medical students what are the meta-analysis. This was a good chances to illustrate the general way in that science works and how we build knowledge in spite of the diffculty of our questiones about the reality. 

Resultado de imagen para black hole photo explained
The result of the collaboration between many places in the world. 

One of the problem to capture an image of a Black Hole is the distance. No telescope existe that could reach that distance with a good resolution. The same problem happens in health studies when we research with humans samples (medicine or psychology, for example). Wherever humans participate, more error potencial is introduced. One study is enough to answer our questions because it have little statistical power or because one study is a biased view about a uncanny phonemena.

Meta-analysis combine the result of many singular and independent studies in order to find the True Effect, of a X treatment on a particular disease, for example. When the studies that are being combining are similar (in other words, overall heteregenety is absent or scarce) meta-analysis assume a Fixed Effect model. This sort of meta-analysis are similiar to the logic in the Event Horizon Telescope Proyect, all recollecting and analtic process of data is oriented to identify the same thing, the same black hole. If we believe the treatment and design of studies we could believe all of them are aiming the same thing, the real risk reducction level of a health outcome. Otherwise, when studies evaluate different type of treatment, different design and population is not reasonable to believe they are aiming the same effect. In this case, meta-analysis need to asume a Random effect model, in this approach the intepration of the results must be other, because is like the telescope point different places in the galaxy and observing every one a particular black hole. The photograph would not be about ONE black hole, is about a Average black hole, in other word these type of meta-analysis are useful to estimate the mean true effect respect a ceratine sort of treatment and disease.

That is the reason assumption in statistical analysis are so important. Because it is not the same to interpretate a drawing of a wanted criminal made with multiple reports of witnesses than to interpret a drawing made with multiple reports of witnesses about how it looks criminals but all of them saw different murderers and the police is confused because they can find something that doesnt exist as a unique person, because, indeed is a combination of different murderers.  A good idea for a thriller movie, or a horror movie where psychologysts after decades never have could be agree about a variable is the cause of other.

Resultado de imagen para meta analysis

Anuncios

¿Es la depresión un trastorno cerebral o genético?

Este post breve es para comentar 2 articulos recientes que han sido publicados y que ponen fuertemente en duda lo que creemos saber sobre la biología de la depresión.

El 6 de marzo de marzo del 2019, John Ioannidis, el mismo autor que en el 2005 declaró que la mayoría de lo resultados en las investigaciones publicadas serían falsas, ahora arremete con articulo titulado: Therapy and prevention for mental health: What if mental diseases are mostly not brain disorders? Por ahora, he solo podido revisar el abstract y discusiones en blogs especializados sobre el articulo, ya que es pagado y Sci-hub no me ha funcionado para acceder a este.  Sin embargo, importante a considerar para volver a abrir el debate de un polémica de larga data pero que gran parte de la comunidad cientifica y profesionales de salud mental parece seguir funcionando como si fuera un paradigma establecido realmente sobre un cumulo de evidencia importante.

Dos dias despues, aparece publicado el 8 de marzo por Border, et al.  un analisis de estudios con muestras que van de 62.138 ta 443.264 casos, y no se encuentra evidencia consistente para apoyar la hipotesis de bases geneticas que estarían implicadas en la depresión, por lo que lo resultados encontrados en la literatura serían probablemente falsos positivos.  Por ejemplo, lo autores señalan que los hallazgos encontrados con muestras pequeñas no son replicados con muestras grandes. Por el contrario, factores ambientales como trauma en la infancia fueron asociados consistentemente con un mayor riesgo a depresión.

Ambas publicaciones hacen un llamado explicito a explorar factores con más evidencia que podrían ayudarnos en la intervención. Y aquí me tomo de las palabras de Eiko Fried en su blog discutiendo sobre el tema, que es realmente frustrante pensar que en las ultimas 3 decadas no hemos avanzado en el tratamiento de este trastorno. Lo que me recuerda a un paper de Patten, et al del 2015, que revisa que entre el 1994 y el 2014 no han cambiado prevalencia de depresión en la población canadiense (sí, Canada, uno de los paises con mejor sistema de salud y bienestar), pese al aumento de cobertura y disponibilidad de tratamiento. Algo se está haciendo mal, algo estamos haciendo mal.

En ningun caso me estoy poniendo ni incito una postura negacionista a la biología. Es muy dificil sostener que el cerebro no tiene un rol esencial en el comportamiento de los sere humanos, ni que este tiene genes asociados a su desarrollo y funcionamiento. Sin embargo, hay que ser claros en señalar que el escaso conocimiento que tenemos sobre el cerebro y la gran diversidad que tiene la depresión en sus maneras de aparecer en los pacientes y en las maneras de ser evaluadas por distintos instrumentos y estrategias metodologicas, así como otras interrogantes sobre su conceptualización nos deja más que nunca clara de seguir investigando en este tema, el cual quizas, fuerze a la psicología, a tropiezos y a cabezasos en convertirse en una ciencia más o menos integrada y no con diversos programas de investigación que corren en universos paralelo.

Measuring in psychology: Back to basics.


In this post, I will explain three core concepts to understand quantitative methodology in psychology. I want to stop here to describe more intuitive but essential ideas which are on the basis of more complex and notorious statistical reasoning, mainly in psychometrics. Firstly, I will describe how humans use the numbers in our daily life to establish quantity. Secondly, I am going to define the concept of variable and levels of measurement. And finally, I will introduce broadly the notion of validity in order to illustrate how to assign the number to abstract things. In other words, this post is thought mainly for undergraduate students, but also like an exercise of divulgation and teaching skills. Moreover, it is a training for me because English is not my first language as you can see in this blog, but I want to attract the more diverse public to here, for this reasons any feedback about language is welcome. No more word and here we go.

Numbers have been with us since ancient times. We can imagine a group of primitive humans collecting fruits and thinking about the food could be enough for everybody. Moreover, we can think in rivals tribes estimating how soldiers men or spears have the others because they need to know if they need more preparations or changing his strategy. Likewise, numbers and quantitative thinking begin when we are little children. For example, we need to know if we receive the same amount of ice-cream than our brother or we have all our toys. We learn to differentiate people older, bigger, stronger or friendly, but, of course, in an intuitive way.

In this sense, I can differentiate three main concepts. Three ideas that we need to remember very well, moreover, you should visualize these concepts in your mind. If you can see these things I believe you can improve your statistical thinking. These concepts are frequency, size, and distance.

Frequency is about counting objects, things or events. Maybe a prisoner doing mark in the wall to estimate how many days he needs to wait to get out there. Maybe a boy drawing above a calendar to calculate how many days he needs to wait for Christmas. Someone scoring each team in a football match or groups of friends playing D&D calculating the result of several dices to determinate if they defeated a monster.

Resultado de imagen para godzilla vs king kong

Then, the size is about the thing are bigger or smaller than others. In this point, we can understand how important is measuring to establish differences and doing comparisons among things. For instance, two geeks are discussing  King Kong or Godzilla is the biggest monster. Firstly, they are talking like fans, only with passion, but one of them use more <<sophistical>> reasoning and he decided to use objective reference in order to determinate the greatness of this favorite monster. He says that according to movies,  Godzilla is on average bigger than King Kong because the giant lizard is clearly taller than the building than it destroys. Indeed, they could discuss not only about height but weight too (another concept that you can recognize in statistical jargon). How can they decide? may they calculate the mean between both?

Nevertheless, the conversation has become more obscure and foggy because the King Kong fan says the Giant Gorilla is more influential, more iconic… and How can they determinate measure to abstract concepts like influential or iconic? which could be the measure units? the scale? the reference? Maybe we are arriving in the dark land of psychological constructs…

Finally, we have the distance. A very useful concept. A messenger needed to give a letter a king from another kingdom, he asks about how far it was this place, and other servant said to him: 3 days with a horse. The messenger thought he needs at least one week to do this travel. Two warriors compete about who is the best, they have made hundreds of feats, but the proudest said: You can never reach me, you are definitely far from me.

In another place, two lovers confess their love for each other. One of them says that he loves her from here to the moon, but she responds that she loves him from here to the stars. Love measured in distance, a simple idea as effective. And we are one step to declare the love to the infinite.

In 1946, S.S. Stevens published “On the Theory of Scales of Measurement”.  In this heroic paper, he saved psychology (or he extended its agony) of attacks from real sciences with real (objective) measures. The “enemies” argued that psychological variables do not accomplish all mathematical properties and, therefore, psychologists we cannot measure, thus psychology cannot be a science. However, Stevens did his movement and it was well played. He proposed different measurement levels, a set of categories to named different variables, thus we can do statistical analysis with psychological variables, but we need recognizing four types:

Nominal :

e.g.    Variable Type of monster 1= mammal 2= reptile

Ordinal

e.g.  Variable  Size   1=  Small  2= medium   3= Big

Interval 

e.g.      Variable Corpulence   from 1 to 20 points

Ratio

e.g.  Variable height  = Metters

Stevens (1946)  define (paraphrasing to N.R. Campbell) measuring as the assignment of number numeral to objects or events according to rules.  However, which are the rules? this is the real challenge. We want to assign numbers to our variables but before we need to define what is a variable.

Review the next images:

Diapositiva2

 

We can differentiate to Homer and Lisa (nominal level, perhaps it could be debated if intelligence is nominal is ordinal considering it has only two levels).

 

 

Diapositiva3But we don’t know how much difference in intelligence they are.

 

Diapositiva4Then, we can add to marge and Bart in order to show grades in intelligence (Ordinal level).

Diapositiva5Moreover, we could get the IQ scores, and now we can say, for instance, that Lissa is 30 points more intelligent than Homer (Interval  level) .

Intelligence is a variable here. A variable is simply a feature that varies among cases, objects or events in a determined population. If something does not show differences among the cases, then this is not a variable is constant. For example, monstrosity could be understood like a constant between King Kong and Godzilla, but they vary in one is a mammal and the other a reptile.  Likewise, it is possible to define variable according to its function. They can be dependent or independent. For instance, if we based with the graphic with Simpsons family we could hypothesize a relationship between gender and intelligence, maybe we say intelligence depends on gender, specifically female gender is associated with an increase in intelligence.

Diapositiva1

Therefore, we can identify an attribute to measure, which is a variable, and it could be nominal, ordinal, interval or ratio. Now, we need an instrument to reveal what is the grade or level that someone or something has. This instrument, according to a Cronbach and Meehl (1955) should have construct validity. This concept could be defined as the property of an instrument, where it measures what it claims to measure. In other words,  “X” scores in the test depend on the “X” construct that it is measuring.

Diapositiva2

Easy to write? easy to imagine? Sadly it is not easy to do. The main problem, is very likely other factors infiltrate in this equation. For example, we could propose more variables on the right side in the equation, maybe anxiety or self-esteem. Hence,  we need to elucidate if our score shows only and wholly intelligence or/and other attributes of the people. How do these factors interact? how much do they weight in the total score?

To summarize, measuring in psychology is related to frequency because we likely count how many correct answers someone had in an intelligence. Counting is essential to assign numbers to things, a basic skill. Then in research comparing groups, we will want to estimate the size of the effect,  or in more simple words, how much has a group in a variable in comparison with others. For example, how much effective is a treatment versus a placebo? Moreover, when you obtain your first regression models, you want to analyze if the residues in your model, in other words, the distance from the predicted values with the actual values. More simply, dispersion statistics like Standard Deviation is the average of the distance (or how much far) from every case respect to the mean (center).

Statistics is so abstract sometimes. Many students struggle with it because they can imagine the concepts. I was one of them, and for this reason, I try to teach in a more kindly way.


 

 

Las guerras alpha y las crisis en investigaciones infinitas.

La visión que se tiene desde el sentido común, o desde fuera de las ciencias “””””Duras“”””””” es que están compuestas por leyes escritas en piedra. Que son como verdades casi reveladas a una serie de genios y a nosotros no nos queda más que memorizar los pasos y leyes que nos conducen a la verdad. Así, las ciencias “”””Blandas“”””, o “ex-humanidades” si quieren obtener los mismo resultados que las ciencias duras deberían empezar aplicar los mismos métodos.

Como se lo podrán imaginar tal pretensión no resultó como se esperaría. Por un lado, el uso de la metodología cuantitativa es asediado por las críticas de epistemologías construccionistas, fenomenología y crítica a todo lo que parece ciencia ya que: <sirve a los intereses de los poderosos>.  Por otro lado, y dentro de los reinos de la metodología cuantitativa podríamos reconocer una “guerra civil” entre los mismos usuarios de la estadística como el camino para obtener evidencia y hacer teorías que nos permitan entender y cambiar nuestra realidad.

Aunque este conflicto podríamos rastrearlo desde sus orígenes. Ya que como toda ciencia siempre han existido teorías en contraposición.  A continuación, adjunto unas diapositivas que prepare para mostrar el camino por el que hemos pasado hasta llegar al día de hoy.

 

 

El pase de diapositivas requiere JavaScript.

Lo interesante desde este punto de vista es que, el concepto significancia estadística en si mismo ha estado desde hace varias décadas puesto en discusión, que significa y cuál es su utilidad. De este modo, no era extraño que muchos años más adelante explotaran todas las dudas de porque algunos estudios encontraban resultados positivos (p<0,05), mientras otros no pudieran rechazar las hipótesis nula.

En concreto, pensemos en el caso de un estudio  que encontró que cierto tratamiento psicológico era efectivo (e.g p <0,05), luego varios clínicos empezaron a usar para tratar a sus pacientes ya que parecía tener un efecto real sobre ellos. Pasan un par de años, y otro grupo de investigadores decide hacer un estudio para ver si pueden obtener los mismos resultados y resultada que no, que el tratamiento no es mejor que el placebo (ya que p >0,05), luego estos investigadores para hacer publicable su estudio prueba una serie de hipótesis adicionales, y buscan desesperadamente entre la literatura explicaciones ad-hoc para encontrarle una explicación a sus resultados y resaltar hipótesis “inesperadas” que resultaron ser estadísticamente significativas. Listo  ¡Tienen paper listo para ser publicado! Ahora repliquen esto miles de veces durante los ultimos 50 años de investigación en psicología y es fácil ver como llegamos a donde estamos. Una ciencia con un montón de resultados de dudosa credibilidad.

Pero el chiste sigue, porque el show debe continuar, así como le dijeron a sísifo mientras veía como la roca que había subido volvía a caer y debía volverla a subir. Resulta que Ioannidis publica en 2005 un articulo donde mostraba al menos la mitad de los resultados publicados en literatura médica serían ¡falsos descubrimientos!, sin saber que en el 2007, Goodman y Greenland revisarían sus análisis y ellos demostrarían que este estaba equivocado, conclusión las cosas, están mal, pero no tan mal. Aunque no me sostengo en esta simple discusión, acuérdense que no sacamos conclusiones de casos particulares. Las discusión sobre si hay crisis o no, y qué factores la explican y cómo se pueden resolver. Acá les dejo una serie de link que se encuentran con una búsqueda rápida simplemente en google (claramente con términos en ingles, porque literatura en español si es casi ausente en este tema)

Opinion: Is science really facing a reproducibility crisis, and do we need it to?, (2018)

https://www.pnas.org/content/115/11/2628

What is science’s crisis really about? (2017)

https://www.sciencedirect.com/science/article/pii/S0016328717301969

An a priori solution to the replication crisis (2018)

https://www.tandfonline.com/doi/abs/10.1080/09515089.2018.1490707?journalCode=cphp20

The Alleged Crisis and the Illusion of Exact Replication (2014)

https://www.rug.nl/research/portal/files/12588700/postprint_Stroebe_Strack_2014.pdf

The Solution to Science’s Replication Crisis (2016)

https://arxiv.org/pdf/1609.03223.pdf

Más que nada, lo que quiere ilustrar en este post es lo actual y candente que está la discusión con este tema. Y gracias a plataformas como Twitter  y Facebook (especificamente el grupo Psychological Methods Discussion Group) , las cuales tambien pueden tener muy buenos usos, como para la discusión casi instantánea sobre investigación y ciencia como nunca antes lo había visto la historia. Imaginen que el articulo de Daniel Lankens, del 2017 sobre la significancia estadística comenzó como un post en Twitter. Esta dinámica de discusión hubiera sido impensable cuando se comunicaban a través de cartas o libros las ideas en el siglo pasado.

CRISIS

Así, como conclusión que son tiempos bastante emocionantes para dedicarse a la investigación. Que esta crisis nos está llevando al desarrollo de una ciencia más colaborativa y transparente (ver por ejemplo, Open Science FrameWork o Researchgate.com), y que posiblemente durante las siguiente décadas podremos ver un gran salto en el desarrollo de teorías en psicología. Pues como dicen los autores del paper que puse en las diapositivas más arriba, no es estamos solo ante problema estadístico y metodológico, sino que también, y tal ves a un problema en nuestras teorías. De este modo, este momento podría ser crucial para mejorar nuestras teorías sustantivamente (¿Ven como quise escapar del termino “significativamente”?).

Para qué (y cómo) escribimos ciencia.

Gran parte de lo que aprendemos lo haríamos observando y emulando a quienes emiten el comportamiento deseado. Por ejemplo, si quiero aprender a andar en bicicleta miraré como lo hacen los demás e intentaré repetir los movimientos, si tengo un deportista favorito intentare imitar sus técnicas para intentar ser tan bueno como él.

Emulamos también a grandes intelectuales o científicos cuando en la universidad nos piden hacer un ensayo o proyecto de investigación. Pero este proceso de emulación no es perfecto y muchas veces terminamos imitando solo la parte más fácil de imitar y no la realmente importante, incluso la que debería ser mejorada en vez imitada. Pensemos en autores como Kant, Hegel o Freud. Sin lugar a dudas, ellos reflexionaron sobre problemas complejos y abrieron debate en ámbitos importantes para las ciencias sociales, sin embargo, al día de hoy es fácil encontrarse con grupos de estudio, tesis o libros intentando interpretar cuál es el mensaje que quisieron transmitir, qué es lo que verdaderamente querían dejarnos.

El estudiante entonces se confunde, y cree que escribiendo de manera más oscura y enrevesada su texto se parecerá más al de los grandes autores y por tanto tocará temas más importantes y profundos.  Palabras rimbombantes y nominalizaciones por doquier.

Ya que según los autores que nos hicieron leer, nos quedo la idea de que hay más ejercicio intelectual en  decir:

–> Los recuerdos afectados por la represión conducen a una generación particular de síntomas. 

que:

–> Reprimir recuerdos genera síntomas particulares. 

Ambas oraciones dicen lo mismo, pero la segunda es mejor, es más directa, clara y por lo tanto breve.

Incluso, podríamos mejorarla más, y referir a sujetos concretos, lo cual ayuda a representarse mejor en quienes está sucediendo. Y después de todo, si estudiamos psicología, las personas están en el centro de nuestras investigaciones

–> Personas que reprimen recuerdos padecen síntomas particulares. 

Pero no solo debemos cuidar la redacción de nuestro texto sino también de la estructura y función que tiene cada párrafo o sección.

Idealmente deberíamos empezar señalando una idea general que permita introducir al lector en el tema y desde qué mirada se va a exponer. Algo así como cuando leemos un libro o película. ¿Es de vaqueros o zombies el tema de la película?  ¿Nos interesa mostrar la acción o el romance?. Esto ya debería quedar ojalá en el primer párrafo o los tres primeros, si queremos seguir leyendo o no.

Luego de los primeros pasos en nuestro texto vamos construyendo párrafo a párrafo, tal cual vamos poniendo un ladrillo sobre otro para construir un castillo. Pero para que este castillo no se derrumbe debe ser solido, y para que cada ladrillo debe ser solido, cada uno debería estar compuesto por una única idea central que es reforzada por ejemplos y evidencias. si agregamos muchas ideas complejas en un solo párrafo fácilmente se desarma, no se puede sostener, está en tantas partes que no está en ninguna. En cada uno vamos agregando una idea nueva, pero como eslabones en una cadena el comienzo de cada párrafo debería empezar con una frase que se relaciona directamente con el párrafo anterior, y así todo queda unido, fluido y cohesionado.

Una estructura clara permite como una superficie pulida que los ojos del lector se deslicen por el manuscrito. Si el lector se demora en entender no es por dificultades en en el camino, en como se entrega el mensaje, si no porque el lector se ha tenido a reflexionar sobre lo que acaba de leer, se queda a contemplar el paisaje (los párrafos y frases) porque le parece que son argumentos y evidencias importantes para considerar y evaluar, o por las ideas que se exponen son una complejidad considerable y requieren de una lectura lenta para incorporarlas.

Después de todo, debemos preguntarnos ¿Por qué queremos escribir sobre temas intelectuales? ¿Por qué queremos investigar?

¿Para que los demás nos digan que somos inteligentes?

o

¿Para ayudar ordenar nuestro pensamiento?

o

¿Para que los demás puedan aprender más fácilmente lo que a nosotros nos costó tanto entender?

o

¿Para contribuir a describir, explicar, comprender o cuestionar lo que entendemos como realidad?

Nuestros escritos no deberían ser como el cuento del traje nuevo del emperador, a quien nadie se atreve a decir que anda desnudo por miedo parecer tonto. Así mismo, no deberíamos tener miedo a cuestionar el sentido o lógica de las afirmaciones o argumentos que son elaboradores por autores renombrados.

 

Las reflexiones de este post vienen de mi propio proceso de aprendizaje de escribir, tesis y artículos, de los comentarios de mis supervisores, revisores y editores de revista (proceso abundante de sangre, sudor y lágrimas). Además de lo aprendido de los libros de Helen Sword (Stylish Academic Writting y The Writer Diet)  y libro de Wayne C. Booth, Gregory G. Colomb, Joseph M. Williams, Joseph Bizup y William T. Fitzgerald (The Craft of Research). Ambos libros que solo por la manera en la que están escritos dan pautas de como mejorar. 

De contraste de hipótesis y generalidades insustanciales

Los cientistas sociales disfrutan haciendo teorías basadas en modelos que predicen que el efecto de una cosa sobre otra será mayor a cero. Me pregunto que lejos habría llegado la física si se conformaran los científicos con predecir que el movimiento de un cuerpo será mayor a cero, o sobarse las espaldas y regocijarse al concluir frases tan generales como que que el movimiento de un cuerpo es un proceso que depende de varios factores y varia de acuerdo al contexto

Animales Fantásticos y cómo encontrarlos: Sensibilidad y especificidad

Imaginemos que extraños parásitos comienzan a infectar a personas. Una nueva especie animal sin antecedentes previos, parecida a la sanguijuelas pero radioactivas, pone en serio peligro a la especie humana como la conocemos…

Una persona infectada por uno de estos parásitos adquiere la capacidad de reorganizar a voluntad sus células, incluso endureciendo su cuerpo como el acero pudiendo transformarse en arma letal. Además de esto, las personas infectadas tienen un deseo de alimentarse de otros seres humanos generándose una ola de asesinatos sumamente brutales que comienzan a alarmar a la población.

Animales Fantásticos y cómo encontrarlos: Sensibilidad y especificidad. Una persona infectada se ve aparentemente igual que cualquier otro humano, sin embargo el parásito ha remplazado totalmente su sistema nervioso central puesto. Los humanos infectados solo cambian de forman cuando van a matar a alguien, y ese alguien no sirve de testigo ya que muere. Por otro parte, si más personas observan a la persona infectada, esta puede simplemente asumir otra forma corporal, modificando su rostro y así ocultando su verdadera identidad.

La policía, los militares y el gobierno ya están al tanto de los reportes de los asesinatos, sin embargo no pueden decir nada a la población ya que generaría un miedo descontrolado y la gente podría empezar a sospechar de cualquier persona a su alrededor, lo que podría llevar a un auto-masacre entre los mismos humanos sanos.

De esto modo, los científicos son los que tendrán que buscar una manera certera para poder detectar a los humanos infectado y tomar medidas extremas para poder salvar a la humanidad de estos invasores.

Resultado de imagen para parasyte the maxim
Parasyte the maxime (Kiseijū) Anime muy recomendado en el que me baso para plantear la situación que inspira este post

Para evaluar la precisión de pruebas diagnosticados se ha pensado en dos conceptos principales. La sensibilidad ( VP / Total2) y la especificidad (VN / Total1).

sensibilidad
VP = Verdaderos positivos, FN= Falsos negativos, FP= Falsos positivos, VN= Verdaderos negativos

Una prueba muy sensible será aquella prueba en la cual haya una alta probabilidad de identificar como infectado a un individuo que de hecho tiene un parásito tomando el control de su cerebro y organismo.

Por otra parte, una prueba muy especifica será la cual tenga una alta probabilidad de indicarnos que un individuo está sano cuando realmente no tiene ningún parásito que lo convierta en una arma biológica come humanos.

Pongamos ejemplos de distintos escenarios donde los científicos diseñan distintas pruebas. Los militares y políticos deben elegir la mejor prueba para cada situación.

Mediante unas pruebas con unos individuos infectados capturados (esperemos se hayan resguardado todos los aspectos éticos y convenciones internacionales) se llega a la siguiente conclusión

Prueba “A”, Proyecto “Exterminio”

no infectado infectado
40 5 45
+ 40 15 55
80 20 100

Tiene una sensibilidad de 0,75 ( S= 15/20) y una especificidad de 0,5 ( E=40/80)

Prueba “B”, Proyecto ” Esperanza”

no infectado infectado
70 12 45
+ 10 8 55
80 20 100

Tiene una sensibilidad de 0,4 ( S= 8/20) y una especificidad de 0,875 ( E=70/80)

Imaginemos el siguiente escenario, dada las últimas muertes ocurrida en una ciudad, se estima que en esta se encuentra la mayor concentración de personas infectadas. Se estima que un 20% de sus habitantes estarían infectados. Por lo cual se envía un equipo especializado para controlar la situación.

Con los resultados de las pruebas podemos concluir que si los militares usan la prueba A para saber si deben disparar y exterminar a una potencial amenaza, a cada 100 personas exterminarán a 15 que realmente ya no eran humanos, pero el 50% de las personas personas habrían sido asesinadas equivocadamente. Un enorme precio a pagar, pero el equipo parece quedar satisfecho ya que han logrado con el 75% de todas las amenazas de ese lugar.

En cambio, si los militares usan la prueba B solo cazarían  a 8 personas verdaderamente infectadas de cada 100 habitantes en la ciudad, mientras que asesinaran injustamente al 12,5% de la gente. Si bien han exterminado 40% de las amenazas, ellos están satisfechos con su misión puesto llevarían a un refugio al 70% de las personas sanas de ese lugar.

Así, de acuerdo a este escenario de horror y ciencia ficción podemos empezar a valorar que cada instrumento usado en ciencias de la salud y sociales debe considerar su especificidad y sensibilidad. Cuando hacemos estimaciones de la prevalencia de un trastorno en la población en base a lo encontrado en una muestra deberíamos siempre tener en consideración estos indicadores a la hora confiar en los resultados. Recordemos que los instrumentos no son perfectos a la hora medir variables y si estimamos que la ansiedad tiene una prevalencia de 20% en la población con un instrumento poco sensible, es muy probable que esa prevalencia sea mucho mayor y que estemos subestimando la extensión del problema.

Por último, la sensibilidad y especificidad no solo es relevante en el nivel de conocimiento, sino que como vimos en el ejemplo ficticio que plantié en este post, tambien afecta en lo práctico a nivel de intervención. Si nos equivocamos en un diagnóstico podríamos terminar dandole antidepresivos a alguien que solo pasaba por un periodo de tristeza, y esto podría producirle efectos secundarios o incluso generar una dependencia.