lunes, 29 de febrero de 2016

Cómo medir la fuerza de la asociación en tablas cruzadas de 2 x 2 y mayores. Texto.




James Rosenthal es un viejo autor a quien vale la pena leer. Yo diría que es un clásico.

Lo que sigue se apoya fundamentalmente en Rosenthal, pero también algo en otros autores. Lo dicho vale esencialmente para las ciencias sociales, y no para otras ciencias en donde se podrán encontrar habitualmente fuerzas de asociación mayores o menores.

¿Cómo informar la fuerza de la asociación en una tabla de 2 x 2?



Diferencia de porcentajes.




En la tabla de 2 * 2 de arriba los porcentajes están calculados horizontalmente. Los porcentajes en la tabla están todos entre 10% y 90%. En estas condiciones encuentra razonable usar la diferencia de porcentajes, e informar por ejemplo así: Entre los no pobres, hay un 30% más de personas que completaron liceo (55% - 25%).

Es un tema algo espinoso catalogar de diferencias de grandes, medianas o pequeñas: hasta cierto punto depende de las disciplinas lo que es grande y lo que es chico. Y dentro de las disciplinas del área específica que se está estudiando.

De todas maneras, a modo de orientación, Rosenthal maneja estas cifras:


Cociente de porcentajes

Si en la tabla de 2 * 2 una de las cantidades está por debajo de 10%, se inclina por el cociente de porcentajes (RR por risk ratio, o también riesgo relativo, como se lo conoce en medicina).


Si no lo hiciera así, la diferencia de arriba debería llamarla chica. Pero el efecto es grande: el que no se vacuna tiene 9 veces más riesgo de enfermarse.

En definitiva, si una de las cifras es menor al 10 %, se inclina por el cociente de porcentajes o RR (riesgo relativo).

RR varía de 0 a infinito.

Nótese que si el riesgo de enfermarse es 9 veces mayor entre quienes no se vacunaron con respecto a quienes sí se vacunaron, el riesgo de enfermarse es 1/9 entre quienes se vacunaron con respecto a quienes no se vacunaron.

Según cómo se haga la cuenta, RR es 9.0 o 1/9. Es la misma fuerza de asociación, expresada de dos formas distintas. Dicho de otra manera, esas fuerzas de asociación expresan lo mismo, pero se toman distintas categorías de referencia.

¿A qué llamaba Rosenthal fuerza de asociación pequeña, grande, etc.? Veáse.





Odds Ratio


Rosenthal apreciaba mucho la medida OR para las tablas de 2 * 2. Es bueno comprender esta medida: se usa también obligatoriamente en regresión logística y en estudios de caso - control. Ahora bien, muchos no gustan de ella porque no es tan intuitiva como el RR.

Odds Ratio es un ratio, un cociente, de odds.

Y las odds son una forma de expresar la probabilidad. Si tiramos un dado, la posibilidad de que salga un 4 es de 1 en 6. Probabilidad = 1/6. Esta probabilidad se puede expresar como odds, que es el cociente entre la probilidad de que suceda un evento dividida la probabilidad de que no. Entonces el odd de que salga un 4 es de 1 contra 5. Odd = 1/5.

El OR es un ratio de odds.

Veámoslo ejemplificado en la tabla que sigue:



Acá las probabilidades de haber votado por el gobierno, entre quienes apoyan la ley, son de 30%. En cambiom expresado en odds, tenemos que son de 30/70.

Y las odds de haber votado por el gobierno entre quienes rechazan la ley son de 8/92.

Por eso  OR (odds ratio) = (30 / 70) / (8 / 92), y esto es igual al producto cruzado. OR = (30 * 92) / (70 * 8) = 4.93. Rosenthal lo consideraría fuerte en el contexto de las ciencias sociales.


OR varía de 0 a infinito. No hay asociación si OR es 1.

Cuando se habla de OR tiene que quedar claro cuál es el evento del que hablamos (aquí haber votado por el gobierno) y cuál el grupo de referencia (aquí rechazar la ley). Entonces podríamos decir que las odds de haber votado por el gobierno son 4.93 mayores en el grupo que apoya la ley que en el grupo de la rechaza.

Si se cambia el grupo de referencia, el OR pasa a ser el recíproco. Por ejemplo, el OR de 4.93 se transformaría en un OR = (1/4.93) = 0.203. Por ello un OR de 4.93 y un OR de 0.203 indican la misma fuerza de asociación.

Valen los mismos valores para lo que es una asociación débil, mediana, etc.





Tablas mayores a 2 * 2

Sigue una tabla de 3 * 2 con variables nominales. Para estas tablas Rosenthal plantea que una buena medida de asociación es la V de Cramer. La V de Cramer varía de 0 (no asociación) a 1 (asociación perfecta). Da una medida global del grado de asociación.

Ahora bien, más allá de establecer una medida del grado global de asociación, importa ver en qué celdas hay excesos o déficits marcados. En estas tablas es absolutamente imprescindible el análisis celda a celda, esto es, ver en qué celdas hay excesos relativos o carencia relativa de casos.






Para Rosenthal, el uso primario de la V de Cramer son tablas mayores a las de 2 * 2, pero pueden ser usadas en estas últimas.

(En las tablas de 2 x 2 hay otros autores que miran con desconfianza el uso de la V de Cramer si alguna de las distribuciones es muy desbalanceada, es decir si una de las categorías tiene menos del 10 % de los casos).


No disponiendo de datos de Rosenthal sobre cómo interpretar la V de Cramer, adjunto criterio de Rea y Parker.


Tablas con variables ordinales

La preferencia de Rosenthal es por tau B si la tabla es cuadrada, es decir si tiene igual número de filas y categorías.

Y si el número de categorías es distinto entre las variables, su preferencia es Tau C (1).

Es de hacer notar que tau b y tau c tratan de ver si existen relaciones crecientes o decrecientes, pero no sirven para medir la fuerza de una relación curvilínea.


En ciencias sociales, se pueden usar estos criterios para llamar débil, moderado o fuerte a un tau:

tau de aproximadamente 0.10 ........ débil
tau de aproximadamente 0.30..........moderado
tau de aproximadamente 0.50 .........fuerte.


Estos valores deben tomarse solamente como orientativos, y pueden haber áreas dentro de las disciplinas que usen distintos criterios.



(1) Tomado de James Rosenthal "Statistics and Data Interpretation for Social Work".
















jueves, 25 de febrero de 2016

P-valores ("sig") y expectativa de replicación exitosa en futuros estudios. Texto.


Cuanto más chicos sean los p-valores, mayor es nuestra expectativa de que podamos replicar exitosamente nuestros resultados en posteriores estudios. Por replicación exitosa entendemos aquí llegar a resultados similares: si encontramos que existía un efecto, volver a encontrarlo.

Sigue un interesante artículo que muestra cuales fueron las probabilidades de replicación exitosa dado un conjunto de p-valores.

Sorprende la baja tasa de replicación.

Vale la pena leer el artículo y es muy corto!



http://blog.minitab.com/blog/adventures-in-statistics/p-values-and-the-replication-of-experiments

sábado, 20 de febrero de 2016

Más sobre P Valores, Intervalos de confianza, reflexión sobre la importancia práctica y sobre posibles sesgos del estudio. Texto.



En un artículo sito en http://ptjournal.apta.org/content/81/8/1464.full, escrito por Jonathan A C Sterne y George Davey Smith, sus autores invitan a publicar los resultados de los análisis estadísticos siguiendo algunas normas que parece de interés explicar y comentar.





Comentarios:

1) Si estamos estudiando una relación, describirla solo como "estadísticamente significativa" no es aceptable. Además habrá que indicar tamaño de los efectos e intervalos de confianza.

2) Se requieren intervalos de confianza para los principales resultados de los estudios. El autor tiene preferencia por intervalos de confianza al 90 %.

Al momento de interpretar los intervalos de confianza se debe hacer foco en la importancia práctica de los hallazgos.

3) El p valor se interpretará como un índice de la evidencia contra la hipótesis nula. Cuanto más pequeño el p valor, más evidencia.

4) El autor toma una posición escéptica contra el análisis de subgrupos y las interacciones. Sucede que corriendo una prueba y otra y otra sobre pequeños subgrupos, se corre el riesgo de terminar  hallando, entre la miríada de tests, falsas asociaciones. Por eso invita a ser especialmente precavido en esta área.

5) Es importantísimo recordar que una cosa es asociación estadística y otra causalidad. Entonces se debe prestar gran atención, particularmente en los estudios observacionales, a la posible espureidad de las asociaciones halladas y a los posibles sesgos en los estudios.






lunes, 15 de febrero de 2016

Como interpretar correctamente los p-valores ("sig"). Texto.



Los p-valores, que frecuentemente aparecen en SPSS bajo el rótulo de "sig", nos indican la probabilidad de obtener un resultado en la prueba de significación (prueba t, chi cuadrado, F, etc.) con valores tan o más extremos como los que se obtuvieron si la hipótesis nula fuera cierta.

No nos dice la probabilidad de que sea cierta la hipótesis nula. El p-valor se calcula a partir del supuesto de que la hipótesis nula es 100% cierta.

Supongamos que tenemos un p-valor de 0.05. ¿Cuál es la probabilidad de que sea cierta la hipótesis nula? No se puede calcular directamente.

Si varias pruebas de significación nos dan p=0.05, esto no significa que en cada una de ellas la probabilidad de que sea cierta la hipótesis nula sea igual. Quizás en algún caso sea muy improbable la hipótesis nula, en particular si hay estudios previos que nos hacen pensar que es falsa. Y quizás en otros casos sea probable, a pesar de nuestro p, si existen numerosos estudios anteriores que nos llevan a pensar que la hipótesis nula es cierta.

Si tenemos un resultado muy poco esperado a la luz de estudios anteriores, muy sorprendente, un valor p menor a 0.05 puede llevarnos a rechazar la hipótesis nula incorrectamente en un gran porcentaje de casos. Si el resultado es muy sorprendente, haremos bien en no sacar conclusiones apoyándonos exclusivamente en el p-valor: debemos tener en cuenta también en estudios anteriores y quizás no emitir un juicio definitivo.

¿Qué podremos hacer para incrementar nuestra confianza en estudios de resultados sorprendentes?
a) replicarlos y b) trabajar con tamaños de muestras mayores.




Añado vínculos a dos interesantes artículos cortos:

http://blog.minitab.com/blog/adventures-in-statistics/not-all-p-values-are-created-equal


http://blog.minitab.com/blog/adventures-in-statistics/five-guidelines-for-using-p-values

miércoles, 10 de febrero de 2016

Tamaño de la muestra, significación estadística, tamaño del efecto, intervalos de confianza y significación práctica: requisitos a la hora de informar los resultados. Texto.


Son varios los requisitos que debe tener un informe de resultados: es deseable que estén los tamaños de la muestra con los cuales se trabaja, y las bases sobre las cuales se calculan los distintos porcentajes; la significación de las relaciones, la fuerza de las asociaciones de variables y los intervalos de confianza.

En algunos investigadores existe una tendendia a centrar la atención excesivamente en si una relación estudiada es estadísticamente significativa o no.

Pero esto cuenta solo parte de la historia.

Pongamos el caso del estudio de la aspirina en la prevención de infartos. Si decimos que la relación fue significativa no alcanza: cabe la pregunta sobre qué tan efectiva fue y cuáles son los márgenes de error de la estimación.



En los cuadros anteriores se muestran los números absolutos del estudio, sus porcentajes y el resultado de la prueba de significación chi2. Podemos ver que la Significación de Chi2 es 0.000.

La relación es significativa: podemos rechazar la hipótesis nula de no relación con un alto nivel de confianza.

La relación que se ve en la muestra existe en el universo: no se debe a un azar muestral. O sea, concluímos que en el universo aquellos que tomaron aspirina tuvieron menos ataques cardíacos que aquellos que no la tomaron. Lo que se acaba de decir está bien, pero no alcanza. Hay que ver otros aspectos.

¿Cuánto mejor estuvieron los que tomaron aspirina? Para esto tenemos que usar alguna medida de tamaño del efecto, y esa medida debe ser pertinente y adecuada.

En ciencias sociales frecuentemente usamos la V de Cramer (o también phi, que tiene igual valor que  la V de Cramer pero con signo positivo o negativo) para ver la fuerza en estas asociaciones dicotómicas. Pero como veremos aquí no funcionará muy bien, o si se quiere, no nos ayuda a leer la situación. Sigue la tabla con la V de Cramer:

La V de Cramer es de 0.034. Uno podría pensar que esta cifra es totalmente despreciable: ambas variables parecen muy debilmente asociadas medidas con este coeficiente de asociación. Pero la V de Cramer no funciona bien aquí: en general no funciona bien si una de las variables tiene categorías muy desbalanceadas. Y aquí una de las categorías, la de los infartados es muy pequeña frente a la de no infartados.

En estos casos podemos usar el RR (riesgo relativo). En el grupo de los que toman el placebo, la probabilidad de infartarse fue de 17/1000. En el grupo de los que tomaron aspirina fue de 9/1000. El riesgo relativo fue casi el doble en el grupo placebo: RR = 17 / 9.

Debemos también pensar en las implicacias prácticas de esta asociación, y para ello nos ayudará otra medida del efecto muy intuitiva y adecuada en la situación: el NTT (number needed to treat).

En las cifras de arriba se vio que entre quines tomaban aspirinas, aparecieron 9 infartos cada 1000 personas, y entre quienes tomaron placebo, aparecieron 17 infartos cada 1000 personas. Entonces tenemos derecho a decir que si las 1000 personas del grupo placebo hubieran tomado aspirina, no habría habido 17 infartos sino 9 infartos. Si las 1000 personas del grupo placebo hubieran tomado aspirina se habrían evitado 8 infartos.

Si tratando a 1000 personas evito 8 infartos, entonces NNT = 125.

Por cada 125 personas tratadas con aspirina evito un infarto. Y desde aquí puedo seguir pensando en costos de la intervención, etc. Es una medida de tamaño del efecto que ayuda a comprender la situación práctica, y no es solo una medida comprensible para un estadístico.

NNT no necesariamente debe restringirse a la medicina, puede ser una medida de enorme utilidad al evaluar, por ejemplo, el impacto de políticas públicas. Por ejemplo, a cuántos alumnos tengo que apoyar en sus dificultades educativas para prevenir una deserción.

Otra cosa importa: el intervalo de confianza para la estimación. De una calculadora en línea extraigo:



"The 95% confidence interval for the NNT ranges from 93.2 to 213.3"


O sea, la estimación puntual es que necesitamos tratar a 125 personas: esto es lo que vemos en la muestra. Pero nadie espera que la muestra refleje exactamente al universo de la cuál fue extraída. ¿Entre qué cantidades estará en el universo? Entre 93 y 213, con un nivel de confianza del 95 %

El intervalo de confianza  da una información muy importante, y es qué tan precisa es la estimación.




Otros números relevantes a la hora de informar son los N, los números de casos en que se apoyan los cálculos.

 Así, por ejemplo, se recomienda que los porcentajes siempre reporten la base, el número de casos sobre los cuales se calculan.

 Sigue una tabla bien presentada: con sus porcentajes y sus bases:



Siguen dos trozos de un informe médico. Nótese el abundante uso de los conteos.






 
Algunos investigadores, si una relación no es significativa, dejan sin informar con precisión aspectos tales como el p-valor, el tamaño del efecto, sus intervalos de confianza, etc.

Esto es equivocado. La relación podría no mostrarse significativa simplemente por el escaso tamaño de la muestra.

Dice Ellis en The Essencial Guide of Effect Sizes: "Report the size and direction of estimated effects. Do this even if results were found to be statistically nonsignificant and your effect size miserably small". "Provide confidence intervals to quantify the degree of precision associated with your effect sizes estimates". "Report the exact p values for all statistical tests, including those with nonsingnificant results".

¿Por qué es importante reportar todos los datos con precisión aún en las relaciones que aparecen como no significativas en nuestro estudio? Porque muchas veces para decidir sobre si ciertas relaciones existen o no, se realizan metaanálisis. Los metaanálisis combinan los resultados de estudios similares para extraer una conclusión de conjunto.





En definitiva:

Para estudiar una relación que vemos en una muestra, es muy deseable tener:
  • su significación
  • su fuerza de la asociación (tamaño del efecto)
  • la importancia práctica de los hallazgos
  • los intervalos de confianza
  • los números base sobre los cuales fueron calculados los estadísticos y porcentajes, y los conteos relevantes.
  • Se debe reportar todo lo anterior, aún si la relación no es significativa.






Notas: 
El calculador utilizado para el cálculo de NTT fue QuickCalcs
Hay pequeñas diferencias en el cálculo de NTT debido a redondeos en el cálculo de los porcentajes originales).





















sábado, 6 de febrero de 2016

Primer Parcial Intensivo 2017. Con soluciones escritas.


Se suben ejercicios del primer parcial del curso intensivo 2017.

Se añaden las respuestas de un muy buen estudiante del curso, Andrés Clavier, quien tuvo la gentileza de autorizarme a que subiera su parcial.

Debí modificar un par de preguntas del parcial a posteriori, ya que advertí cierto nivel de ambigüedad en ellas, y por tanto debí modificar las respuestas. Si en los procesos de modificación y ajuste aparecieren errores -espero que no- son enteramente míos.




https://drive.google.com/open?id=1Pi1vJ8yv_PO4oymd9mjrj1fpW910ENUG

viernes, 5 de febrero de 2016

Ejercicios de 1er. parcial año 2007 (sin soluciones).



Exige conocimientos de recodificación de variables, cálculo 0-1, análisis univariado, cálculo condicional, etc.



https://drive.google.com/file/d/0B9C7VyfotFyJX0hYWXJtc0pRODQ/view?usp=sharing

jueves, 4 de febrero de 2016

Ejercicios de 1er. parcial 2015 (sin soluciones)

 El presente archivo corresponde a un primer parcial de SPSS.

El ejercicio 1 es de cálculo 0-1, y de categorización en ntiles.
El ejercicio 2 es de análisis univariado y bivariado.
El ejercicio 3 pide conocimientos de fusión de archivos y de cálculo con variables de cadena.
El ejercicio 4 es de análisis univariado, categorización en ntiles y recodificación
El ejercicio 5 tiene analisis univariado, cálculo y cálculo condicional y recodificación.

Visto lo desarrollado en el blog hasta ahora, todos pueden hacerse excepto el ejercicio 3.


https://drive.google.com/open?id=0B9C7VyfotFyJVVJaSTRCemhpUXM

miércoles, 3 de febrero de 2016

1er. Parcial. Con soluciones escritas.

Primer parcial, con soluciones escritas. Se sugiere hacer el parcial para recién luego comparar soluciones.


https://drive.google.com/open?id=1zz5bX642h4oTnGFoEmuOpALquTvj38y_

lunes, 1 de febrero de 2016

Ejercicio de repaso de análisis univariado y relaciones bivariadas (sin solución)


Base de datos ficticios sobre trabajadoras. Se solicitan descripciones de variables aisladas y de relaciones entre dos variables (gráficas, tablas, pruebas de signficación y tamaño del efecto)


https://drive.google.com/open?id=0B9C7VyfotFyJVnRrSWhlSFZjTmM