Encontré el ANOVA por primera vez cuando era estudiante de maestría en Oxford en 1978. Los enfoques modernos, al enseñar variables continuas y categóricas juntas en el modelo de regresión múltiple, dificultan que los estadísticos más jóvenes entiendan lo que está sucediendo. Por lo tanto, puede ser útil volver a tiempos más simples.
En su forma original, el ANOVA es un ejercicio de aritmética mediante el cual se divide la suma total de cuadrados en piezas asociadas con tratamientos, bloques, interacciones, lo que sea. En un entorno equilibrado, las sumas de cuadrados con un significado intuitivo (como SSB y SST) se suman a la suma total ajustada de cuadrados. Todo esto funciona gracias al Teorema de Cochran . Usando Cochran, puede calcular los valores esperados de estos términos bajo las hipótesis nulas habituales, y las estadísticas F fluyen desde allí.
Como beneficio adicional, una vez que comience a pensar en Cochran y las sumas de cuadrados, tiene sentido seguir cortando y cortando en cuadritos las sumas de cuadrados de su tratamiento utilizando contrastes ortogonales. Cada entrada en la tabla ANOVA debe tener una interpretación de interés para el estadístico y generar una hipótesis comprobable.
Recientemente escribí una respuesta donde surgió la diferencia entre los métodos MOM y ML. La pregunta se centró en la estimación de modelos de efectos aleatorios. En este punto, el enfoque ANOVA tradicional separa totalmente a la empresa con la estimación de máxima probabilidad, y las estimaciones de los efectos ya no son las mismas. Cuando el diseño no está equilibrado, tampoco obtienes las mismas estadísticas F.
σ2pσ2σ2+nσ2pnσ2b^. El ANOVA produce un método de estimador de momentos para la varianza del efecto aleatorio. Ahora, tendemos a resolver tales problemas con modelos de efectos mixtos y los componentes de varianza se obtienen a través de la estimación de máxima verosimilitud o REML.
El ANOVA como tal no es un método de procedimiento de momentos. Se trata de dividir la suma de cuadrados (o más generalmente, una forma cuadrática de la respuesta) en componentes que producen hipótesis significativas. Depende en gran medida de la normalidad, ya que queremos que las sumas de cuadrados tengan distribuciones de chi-cuadrado para que las pruebas F funcionen.
El marco de máxima verosimilitud es más general y se aplica a situaciones como modelos lineales generalizados donde no se aplican sumas de cuadrados. Algunos softwares (como R) invitan a la confusión al especificar métodos anova para pruebas de razón de probabilidad con distribuciones asintóticas de chi-cuadrado. Se puede justificar el uso del término "anova", pero estrictamente hablando, la teoría detrás de esto es diferente.