Había estado usando el término "Caso Heywood" de manera informal para referirme a situaciones en las que una estimación actualizada en línea de la "respuesta finita" iterativa de la varianza se volvió negativa debido a problemas de precisión numérica. (Estoy usando una variante del método de Welford para agregar datos y eliminar datos anteriores). Tenía la impresión de que se aplicaba a cualquier situación en la que una estimación de la varianza se volviera negativa, ya sea debido a un error numérico o error de modelado, pero un colega estaba confundido por mi uso del término. Una búsqueda en Google no aparece mucho, aparte de eso, se usa en el análisis factorial y parece referirse a las consecuencias de una estimación de varianza negativa. ¿Cuál es la definición precisa? ¿Y quién era el Heywood original?