Minha principal pergunta é com relação à tentativa de entender como a validação cruzada k-fold se encaixa no contexto de ter conjuntos de treinamento / validação / teste (se é que se encaixa nesse contexto).
Geralmente, as pessoas falam em dividir os dados em um conjunto de treinamento, validação e teste - digamos na proporção de 60/20/20 por curso de Andrew Ng - pelo qual o conjunto de validação é usado para identificar parâmetros ideais para o treinamento do modelo.
No entanto, se alguém quiser usar a validação cruzada com dobras k na esperança de obter uma medida de precisão mais representativa quando a quantidade de dados for relativamente pequena, o que fazer a validação cruzada com dobras k implica exatamente nessa divisão 60/20/20 cenário?
Por exemplo, isso significaria que realmente combinaríamos os conjuntos de treinamento e teste (80% dos dados) e realizaríamos a validação cruzada com dobras k para obter nossa medida de precisão (descartando efetivamente com um "conjunto de testes" explícito? Em caso afirmativo, qual modelo treinado usamos a) na produção eb) para usar contra o conjunto de validação e identificar os parâmetros ideais de treinamento? Por exemplo, uma resposta possível para aeb é talvez usar o modelo da melhor dobra.