Eu acho que a subamostragem (downsampling) é um método popular para controlar o desequilíbrio de classe no nível básico, o que significa que ele corrige a raiz do problema. Portanto, para todos os seus exemplos, selecionar 1.000 aleatoriamente a maioria da turma a cada vez funcionaria. Você pode até brincar com a criação de 10 modelos (10 dobras de 1.000 por maioria versus a minoria com 1.000) para usar todo o seu conjunto de dados. Você pode usar esse método, mas, novamente, você está jogando fora 9.000 amostras, a menos que tente alguns métodos de conjunto. Correção fácil, mas difícil de obter um modelo ideal com base em seus dados.
O grau em que você precisa controlar o desequilíbrio de classe baseia-se amplamente em seu objetivo. Se você se preocupa com a classificação pura, o desequilíbrio afetaria a probabilidade de 50% de corte para a maioria das técnicas, então eu consideraria a redução da amostragem. Se você se importa apenas com a ordem das classificações (deseja positivos geralmente mais altos que negativos) e usa uma medida como AUC, o desequilíbrio de classe apenas influencia suas probabilidades, mas a ordem relativa deve ser decentemente estável para a maioria das técnicas.
A regressão logística é boa para o desequilíbrio de classe, porque enquanto você tiver> 500 da classe minoritária, as estimativas dos parâmetros serão precisas o suficiente e o único impacto será na interceptação, que pode ser corrigida se for algo que você possa quer. A regressão logística modela as probabilidades em vez de apenas classes, para que você possa fazer mais ajustes manuais para atender às suas necessidades.
Muitas técnicas de classificação também têm um argumento de peso de classe que o ajudará a se concentrar mais na classe minoritária. Isso penalizará a classificação de falta de uma classe minoritária verdadeira, de modo que sua acurácia geral sofrerá um pouco, mas você começará a ver mais classes minoritárias classificadas corretamente.