miércoles, 8 de mayo de 2013

Análisis de la varianza ANOVA



 La prueba ANOVA es una prueba paramétrica y como tal requiere una serie de supuestos para poder ser aplicada correctamente. Denominada ANOVA o análisis de la varianza, en realidad nos va a servir no solo para estudiar las dispersiones o varianzas de los grupos, sino para estudiar sus medias y la posibilidad de crear subconjuntos de grupos con medias iguales. Se puede decir que la prueba ANOVA es la generalización de la t de Student, ya que si realizamos una prueba ANOVA en la comparación de solo dos grupos, obtenemos los mismos resultados.
Al igual que la t de Student, se requiere que cada uno de los grupos a comparar tenga distribuciones normales, o lo que es más exacto, que lo sean sus residuales. Los residuales son las diferencias entre cada valor y la media de su grupo. Además debemos estudiar la dispersión o varianzas de los grupos, es decir estudiar su homogeneidad. Cuando mayor sean los tamaños de los grupos, menos importante es asegurar estos dos supuestos, ya que el ANOVA suele ser una técnica bastante “robusta” comportándose bien respecto a transgresiones de la normalidad. No obstante, si tenemos grupos de tamaño inferior a 30, es importante estudiar la normalidad de los residuos para ver la conveniencia o no de utilizar el análisis de la varianza. Si no fuera posible utilizar directamente el ANOVA, podemos recurrir al uso de pruebas no paramétricas, como la de Kruskal-Wallis.
Como ya hemos dicho, el ANOVA es la generalización de la t de Student, y sus hipótesis nula y alternativa se pueden formular del siguiente modo:
· Hipótesis nula (Ho): µ1= µ2=…= µk
Las medias de los k grupos son iguales y por tanto las diferencias encontradas pueden explicarse por el azar. Dicho de otro modo, los grupos proceden de poblaciones con medias iguales.
· Hipótesis alternativa (H1): al menos uno de los grupos tiene una media distinta del resto de grupos.
En la prueba ANOVA las comparaciones son siempre bilaterales (a dos colas) ya que estudiamos globalmente si los grupos tienen medias distintas, y no si un grupo tiene una media menor o mayor que otro por separado. Si se rechaza la hipótesis nula, no sabremos entre qué grupos están las diferencias.
La variabilidad o varianza total que podemos tener en nuestros datos se puede descomponer a su vez en:
-Varianza entre grupos. Mide la variabilidad entre las medias de cada grupo respecto a la media total de todas las observaciones. Denominada también como variabilidad o varianza inter-grupos.
-Varianza dentro de los grupos. Mide la variabilidad de cada observación respecto a la media de su grupo. Podemos encontrarla bajo el nombre de residual, error o varianza intra-grupos.
Del mismo modo que se hace en la t de Student y con otras pruebas estadísticas, se divide un efecto observado respecto a un error aleatorio. En nuestro caso se divide el efecto debido a la pertenencia de los grupos (varianza entre grupos) respecto a la dispersión debida al azar o error aleatorio (varianza dentro de los grupos). A este cociente se le denomina F, o F de Fisher-Snedecor. Si sobrepasa cierto valor crítico, entonces podremos afirmar que el efecto observado es demasiado grande para poder ser explicado por el azar (error aleatorio) y que por tanto no todos los grupos estudiados tienen la misma media.

Bibliografía
Prueba ANOVA: comparación de las medias de tres o más grupos, JOSÉ MARÍABELLÓN
Consulta do el 5 de abril del 2013 http://epidemiologiamolecular.com/prueba-anova-comparacion-medias-grupos/]

Subido por: Alan Acevedo


1 comentario:

  1. Bueno un archivo de teoria sobre ANOVA, esta resumido y a mi parecer bien explicado para entender los conceptos que aplicamos en los problemas a resolver en clase y tener una mejor idea o entendimiento a estos.

    ResponderEliminar