Alguém pode me explicar as diferenças reais entre análise de regressão e ajuste de curva (linear e não linear), com um exemplo, se possível?
Parece que ambos tentam encontrar uma relação entre duas variáveis (dependente versus independente) e, em seguida, determinam o parâmetro (ou coeficiente) associado aos modelos propostos. Por exemplo, se eu tiver um conjunto de dados como:
Y = [1.000 1.000 1.000 0.961 0.884 0.000]
X = [1.000 0.063 0.031 0.012 0.005 0.000]
Alguém pode sugerir uma fórmula de correlação entre essas duas variáveis? Estou com dificuldades para entender a diferença entre essas duas abordagens. Se você preferir apoiar sua resposta com outros conjuntos de dados, não há problema, pois esse parece difícil de se ajustar (talvez apenas para mim).
O conjunto de dados acima representa a e eixos de uma característica operacional do receptor (ROC), onde é a taxa verdadeira positiva (TPR) e é a taxa de falsos positivos (FPR).y y
Estou tentando ajustar uma curva ou fazer uma análise de regressão conforme minha pergunta original, ainda não tenho certeza, entre esses pontos para estimar o TPR para qualquer FPR específico (ou vice-versa).
Primeiro, é cientificamente aceitável encontrar essa função de ajuste de curva entre duas variáveis independentes (TPR e FPR)?
Segundo, é cientificamente aceitável encontrar essa função se eu souber que as distribuições dos casos negativos reais e positivos reais não são normais?