jueves, 20 de agosto de 2015

¿Puede ser tratada una distribución como aproximadamente normal? Pequeño texto.





Hay diversas pruebas estadísticas que pueden ser aplicadas si una distribución es "aproximadamente normal".

Pero no es unívoco a qué llamamos "aproximadamente normal".





Métodos gráficos


Algunos estadísticos se inclinan por una inspección gráfica de la muestra. Si el histograma es aproximadamente simétrico y unimodal, algo acampanado, les alcanza para decir que proviene de una población aproximadamente normal, o al menos para no descartar la hipótesis nula de normalidad de la población.

Otros estadísticos piden curvas QQplot y PPplot, que grafican percentiles esperados para una distribución normal y los percentiles observados en nuestra muestra. Si la nube de puntos no se aleja demasiado de la diagonal y si no hay outliers extremos, damos la distribución por normal. En SPSS las curvas QQplot y PPplot pueden ser encontradas en Analizar, Estadísticos descriptivos, gráficos PP y QQ.

¿Qué es una distribución no normal? Esencialmente distribuciones bimodales o trimodales,  distribuciones fuertemente sesgadas, ya sea a izquierda o a derecha, o distribuciones con outliers muy marcados.







Métodos que usan el coeficiente de asimetría o de curtosis.


Hay autores que deciden tratar a una curva como normal o no según sean sus medidas de asimetría y curtosis. En SPSS se pueden pedir estas medidas así: Analizar, Estadísticos descriptivos, Explorar.

Ahora bien, ¿qué es aproximadamente normal? Parecen haber grandes diferencias entre autores.

Encuentro en la red una propuesta de considerar normal una distribución si ambos coeficientes caen en el entorno de ± 0.5: 

Cuando la distribución de los datos cuenta con un coeficiente de asimetría (g1 = ±0.5) y un coeficiente de Curtosis de (g2 = ±0.5), se le denomina Curva Normal. Este criterio es de suma importancia ya que para la mayoría de los procedimientos de la estadística de inferencia se requiere que los datos se distribuyan normalmente 

(Tomado de http://www.spssfree.com/curso-de-spss/analisis-descriptivo/medidas-de-distribucion-curtosis-asimetria.html).

**

En cambio, otros autores usan los límites de ± 1 y de ± 2 para las medidas de asimetría y curtosis. Hasta 1 muy bueno, al menos para cálculos psicométricos y hasta 2 aceptable. 

    Measures of the shape of the distribution

    (measures of the deviation from normality)

    • Kurtosis: a measure of the "peakedness" or "flatness" of a distribution. A kurtosis value near zero indicates a shape close to normal. A negative value indicates a distribution which is more peaked than normal, and a positive kurtosis indicates a shape flatter than normal. An extreme positive kurtosis indicates a distribution where more of the values are located in the tails of the distribution rather than around the mean. A kurtosis value of +/-1 is considered very good for most psychometric uses, but +/-2 is also usually acceptable.
    • Skewness: the extent to which a distribution of values deviates from symmetry around the mean. A value of zero means the distribution is symmetric, while a positive skewness indicates a greater number of smaller values, and a negative value indicates a greater number of larger values. Values for acceptability for psychometric purposes (+/-1 to +/-2) are the same as with kurtosis.

(Tomado de http://psychology.illinoisstate.edu/jccutti/138web/spss/spss3.html)




Métodos que usan pruebas de significación para establecer normalidad.

Spss ofrece hacer pruebas de significación para intentar rechazar la hipótesis nula de distribución normal (Analizar, Estadísticos Descriptivos, Explorar, Gráficos, Gráficos con pruebas de normalidad). Las pruebas realizadas son las de Kolmogorov-Smirnov y la de Shapiro-Wilk.

Pero estas pruebas también tienen sus inconvenientes. Si la muestra es muy chica, aunque sea extraída de una distribución nada normal, es probable que la prueba no alcance los umbrales de significatividad (La prueba "no está segura" de rechazar la hipótesis nula de normalidad simplemente porque la muestra es muy chica).

Las pruebas de significación tampoco funcionan bien con las muestras grandes. Si una muestra está apenas alejada de lo normal, pero la muestra es de gran tamaño, la prueba de significación puede "estar segura" de que la distribución no es perfectamente normal. Y aunque nuestra muestra no fuese exactamente normal, es muy probable que pudiese recibir tests que tengan entre sus premisas la normalidad.





Métodos combinados

Hay autores que recomiendan la inspección visual y una prueba de significación. Entre Kolmogorov Smirnov y Shapiro-Wilk, le dan prioridad a la última por considerarla más sensible.




En conclusión:


Hay varias formas para expedirse sobre la normalidad aproximada de una muestra. Ninguna es totalmente satisfactoria en todas las circunstancias. Ni la gráfica, ni las pruebas de significación, ni los valores de asimetría y curtosis.

Ante la duda acerca de la normalidad de una población de la cual se extrae una muestra, podemos analizarla de dos formas distintas: como si procediera de una población normal y como si viniese de una población no normal. Si se arriba a conclusiones similares en ambos análisis, deja de ser importante si es normal o no.

En otras ocasiones lo mejor es fijarse en el área específica que se está trabajando. Si se desea hacer un indicador en psicología, habría que ver qué criterios usan quienes arman indicadores en psicología.












No hay comentarios: