Uma floresta aleatória é uma coleção de árvores de decisão formada pela seleção aleatória de apenas alguns recursos para construir cada árvore (e algumas vezes agrupando os dados de treinamento). Aparentemente, eles aprendem e generalizam bem. Alguém já fez amostragens no MCMC do espaço em árvore de decisão ou as comparou com florestas aleatórias? Sei que pode ser computacionalmente mais caro executar o MCMC e salvar todas as árvores amostradas, mas estou interessado nas características teóricas desse modelo, não nos custos computacionais. O que quero dizer é algo como isto:
- Construa uma árvore de decisão aleatória (provavelmente teria um desempenho horrível)
- Calcule a probabilidade da árvore com algo como , ou talvez adicione um termo .
- Escolha uma etapa aleatória para alterar a árvore e selecione com base na probabilidade .
- A cada N etapas, salve uma cópia da árvore atual
- Volte para 3 por alguns tempos N * M grandes
- Use a coleção de M árvores salvas para fazer previsões
Isso daria um desempenho semelhante ao das florestas aleatórias? Observe que aqui não estamos descartando bons dados ou recursos em nenhuma etapa, diferentemente das florestas aleatórias.