Eu estava usando o termo "Caso Heywood" de maneira informal para me referir a situações em que uma estimativa on-line e 'resposta finita' atualizada iterativamente da variação se tornou negativa devido a problemas de precisão numérica. (Estou usando uma variante do método de Welford para adicionar dados e remover dados mais antigos.) Fiquei com a impressão de que se aplicava a qualquer situação em que uma estimativa de variação se tornasse negativa, devido a erro numérico ou erro de modelagem, mas um colega estava confuso com o uso do termo. Uma pesquisa no google não aparece muito, além de ser usada na análise fatorial, e parece se referir às consequências de uma estimativa de variação negativa. Qual é a definição precisa? E quem era o Heywood original?