Saltar la navegación

Ampliación: Análisis de varianza

Un aspecto importante de investigaciones cuantitativas algo más avanzadas es el análisis de varianza, o ANOVA (del inglés analysis of variance). Es propio de las investigaciones donde se forman varios grupos dentro de la muestra según los valores de la variable independiente, y se mide en cada uno de ellos los valores resultantes de la variable dependiente. El análisis consiste en identificar y cuantificar distintos tipos de varianza en esos valores.

Se llama varianza sistemática a la variabilidad o dispersión de los valores de la variable dependiente causada por variables conocidas, como la variable independiente o cualquier variable perturbadora que se esté teniendo en cuenta en la investigación. Puede ser de dos tipos: entre grupos y entre filas.

La varianza entre grupos proviene de la dispersión en las medias de la variable dependiente de cada uno de los grupos formados en la muestra según los valores de la variable independiente. En diseños de investigación experimentales, donde el valor de la variable independiente en cada grupo es manipulado por el investigador, se denomina varianza experimental. Esta varianza es muy importante porque ofrece indicios del efecto de la variable independiente sobre la dependiente. Si no tuviese ningún efecto, los grupos tendrían medias muy parecidas en la variable dependiente. En cambio, si la variable independiente tuviese un efecto importante, cada grupo tendría una media de la variable dependiente muy diferente. Este análisis ya se ha llevado a cabo en un apartado anterior para el caso de dos grupos, a través del contraste de hipótesis para la diferencia de medias, pero los procedimientos de ANOVA permiten hacerlo para más de dos grupos.

EJEMPLO

En una investigación se establece como variable independiente el método didáctico aplicado a un conjunto de estudiantes y como variable dependiente su resultado académico. Se forman cuatro grupos de estudiantes, en cada uno de los cuales se aplica un método didáctico diferente. Se miden los resultados académicos de los alumnos y se obtiene la media de cada grupo. La varianza sistemática entre grupos (experimental en este caso) corresponde entonces a la varianza entre todas esas medias, y es un indicador del efecto que ha tenido cada uno de los métodos didácticos.

Pueden existir en el estudio variables perturbadoras que es necesario controlar para que la relación entre la independiente y la dependiente no resulte alterada. Entre las técnicas de control de estas variables, que vimos en una sección anterior, se encuentra el emparejamiento o el bloqueo, cuya aplicación da lugar a parejas o a bloques de elementos según los valores de la variable de control. Se denomina varianza entre filas a la que proviene de la dispersión entre las medias de la variable dependiente de las diversas parejas o bloques. El cálculo es totalmente análogo al de la varianza entre grupos, solo que ahora esos grupos se denominan filas y se forman según los valores de la variable de control, no de la independiente.

.

 

Otro componente de la varianza, distinta de la sistemática, es la varianza intragrupo, que se debe a la dispersión que sigue existiendo en los valores de la variable dependiente dentro de los grupos formados según la variable independiente. Esa dispersión puede deberse a otras variables perturbadoras que no han sido controladas (quizá ni siquiera han sido identificadas), o bien puede ser el resultado de influencias aleatorias sobre los elementos o en el propio proceso de toma de datos. Se llama varianza intragrupo porque se calcula dentro de los grupos formados en la investigación, no comparando unos grupos o filas con otros. Para obtener esta varianza se calcula en primer lugar la varianza de los datos dentro de cada grupo, y a continuación se calcula la media aritmética de las varianzas de todos los grupos.

Es importante señalar que parte de la varianza intragrupo puede pasar a formar parte de la sistemática si se identifican y controlan nuevas variables perturbadoras. Cuantas más variables de este tipo se consideren, más se reducirá la varianza intragrupos, y la que quede se acercará cada vez más a la causada específicamente por influencias aleatorias, tomando entonces el nombre de varianza aleatoria o varianza de error. Nunca se podrá tener la certeza de haber identificado todas las variables perturbadoras, pero al menos puede hacerse con las más importantes, dejando que el resto contribuya a la varianza de error.

En resumen, la varianza de los valores de la variable dependiente tiene un componente sistemático (que puede ser experimental), formado por varianza entre grupos y varianza entre filas, y un componente intragrupos (que puede ser principalmente aleatorio).

Además de esta identificación de componentes de la varianza, ANOVA permite llevar a cabo un contraste de hipótesis mediante estadística inferencial para comprobar si la variable independiente o las perturbadoras controladas influyen significativamente o no en la variable dependiente, es decir, para establecer si las medias de los diversos grupos formados presentan diferencias estadísticamente significativas o no, siempre para un nivel de confianza dado. El procedimiento resumido puede consultarse en este documento.