Nota: O caso é n >> p
Estou lendo Elementos de aprendizagem estatística e há várias menções sobre a maneira "correta" de fazer a validação cruzada (por exemplo, página 60, página 245). Especificamente, minha pergunta é como avaliar o modelo final (sem um conjunto de testes separado) usando o CV k-fold ou o bootstrapping quando houver uma pesquisa de modelo? Parece que na maioria dos casos (algoritmos ML sem seleção de recurso incorporado) haverá
- Uma etapa de seleção de recurso
- Uma etapa de seleção de meta-parâmetro (por exemplo, o parâmetro de custo no SVM).
Minhas perguntas:
- Vi que a etapa de seleção de recursos pode ser realizada onde a seleção de recursos é feita em todo o conjunto de treinamento e mantida de lado. Em seguida, usando o CV com dobras k, o algoritmo de seleção de recursos é usado em cada dobra (obtendo diferentes recursos, possivelmente escolhidos a cada vez) e a média do erro. Em seguida, você usaria os recursos escolhidos usando todos os dados (que foram reservados) para treinar o modo final, mas utilizaria o erro da validação cruzada como uma estimativa do desempenho futuro do modelo. ISSO ESTÁ CORRETO?
- Quando você está usando a validação cruzada para selecionar os parâmetros do modelo, como estimar o desempenho do modelo posteriormente? É O MESMO PROCESSO DO Nº 1 ACIMA OU DEVE USAR O CV NESTADO COMO MOSTRADO NA PÁGINA 54 ( pdf ) OU ALGO MAIS?
- Quando você está executando as duas etapas (configuração de recurso e parâmetro) ..... então o que você faz? loops aninhados complexos?
- Se você tiver uma amostra separada, a preocupação desaparece e você pode usar a validação cruzada para selecionar recursos e parâmetros (sem se preocupar, pois sua estimativa de desempenho será proveniente de uma configuração de retenção)?