Regressão e aprendizado de máquina são usados nas ciências naturais para testar hipóteses, estimar parâmetros e fazer previsões ajustando modelos aos dados. No entanto, quando tenho um modelo a priori , não quero fazer nenhum ajuste - por exemplo, um modelo de um sistema físico determinístico calculado a partir dos primeiros princípios. Eu simplesmente quero saber o quão bem meu modelo corresponde aos dados e depois entender quais partes do modelo contribuem significativamente para a correspondência. Alguém poderia me indicar uma maneira estatisticamente rigorosa de fazer isso?
Em termos mais específicos, suponha que eu tenha um sistema físico para o qual medi uma variável dependente ( varia de 1 a , o tamanho da amostra) sob condições variáveis descritas por três variáveis independentes , e . Embora o sistema real que gerou os dados seja complicado, fiz algumas suposições simplificadoras para derivar um modelo teórico para o sistema, de modo que
,
onde é uma função não linear (e não linearizável) das variáveis independentes e é a diferença entre os valores previstos e medidos pelo modelo. é completamente pré-especificado; nenhum ajuste é feito e nenhum parâmetro é estimado. Meu primeiro objetivo é determinar se é um modelo razoável para o processo que produziu os valores medidos .
I também desenvolveu modelos simplificado e , os quais são encaixados em (se o que importa, neste caso). Meu segundo objetivo é determinar se coincide com os dados significativamente melhor do que ou , sugerindo que as características que diferenciam modelo a partir de modelos e desempenham um papel importante no processo que gera .
Idéias até agora
Talvez se houvesse alguma maneira de determinar o número de parâmetros ou o número de graus de liberdade para o meu modelo matemático, seria possível usar procedimentos existentes como um teste de razão de verossimilhança ou comparação da AIC. No entanto, dada a forma não linear de e a ausência de parâmetros óbvios, não tenho certeza se é razoável atribuir parâmetros ou assumir o que constitui um grau de liberdade.
Li que medidas de qualidade de ajuste, como o coeficiente de determinação ( ), podem ser usadas para comparar o desempenho do modelo. No entanto, não está claro para mim qual pode ser o limite para uma diferença significativa entre os valores de . Além disso, como eu não encaixo o modelo nos dados, a média dos resíduos não é zero e pode ser diferente para cada modelo. Assim, um modelo de boa correspondência que tende a subestimar os dados pode render um valor tão baixo de quanto um modelo que não foi imparcial, mas com baixa correspondência com os dados.
Também li um pouco sobre testes de adequação (por exemplo, Anderson-Darling), mas como a estatística não é o meu campo, não tenho certeza de quão bem esse tipo de teste se ajusta ao meu objetivo. Qualquer orientação seria apreciada.
f
é completamente pré-especificado. É como uma caixa preta que produz a resposta a y
partir das variáveis de entrada, e quero saber como está indo em comparação com as caixas pretas concorrentes. Uma situação análoga pode estar tentando avaliar a correspondência entre a saída de uma simulação numérica e as medições feitas no sistema físico real.
f()
que precisam ser determinados a partir de um ajuste nos dados ou a função éf()
completamente pré-especificada?