Refiro-me, em particular, ao coeficiente de correlação produto-momento de Pearson.
Refiro-me, em particular, ao coeficiente de correlação produto-momento de Pearson.
Respostas:
Qual é a diferença entre a correlação entre e e uma regressão linear que prevê de ?Y Y X
Primeiro, algumas semelhanças :
Segundo, algumas diferenças :
lm
e cor.test
em R
, produzirá valores p idênticos.
Aqui está uma resposta que eu publiquei no site graphpad.com :
Correlação e regressão linear não são as mesmas. Considere estas diferenças:
No caso de preditor único de regressão linear, a inclinação padronizada tem o mesmo valor que o coeficiente de correlação. A vantagem da regressão linear é que o relacionamento pode ser descrito de forma que você possa prever (com base no relacionamento entre as duas variáveis) a pontuação na variável prevista, dado qualquer valor específico da variável preditora. Em particular, uma peça de informação que uma regressão linear fornece a você que uma correlação não é a interceptação, o valor na variável prevista quando o preditor é 0.
Em resumo - eles produzem resultados idênticos computacionalmente, mas há mais elementos capazes de interpretar na regressão linear simples. Se você estiver interessado em simplesmente caracterizar a magnitude do relacionamento entre duas variáveis, use a correlação - se você estiver interessado em prever ou explicar seus resultados em termos de valores específicos, provavelmente deseja uma regressão.
A análise de correlação quantifica apenas a relação entre duas variáveis, ignorando qual é variável dependente e qual é independente. Porém, antes de aplicar a regressão, é necessário calibrar o impacto de qual variável você deseja verificar na outra variável.
Todas as respostas fornecidas até o momento fornecem informações importantes, mas não se deve esquecer que você pode transformar os parâmetros de um em outro:
Assim, você pode transformar os dois escalando e alterando seus parâmetros.
Um exemplo em R:
y <- c(4.17, 5.58, 5.18, 6.11, 4.50, 4.61, 5.17, 4.53, 5.33, 5.14)
x <- c(4.81, 4.17, 4.41, 3.59, 5.87, 3.83, 6.03, 4.89, 4.32, 4.69)
lm(y ~ x)
##
## Call:
## lm(formula = y ~ x)
##
## Coefficients:
## (Intercept) x
## 6.5992 -0.3362
(m <- cov(y, x) / var(x)) # slope of regression
## [1] -0.3362361
cor(y, x) * sd(y) / sd(x) # the same with correlation
## [1] -0.3362361
mean(y) - m*mean(x) # intercept
## [1] 6.599196
Citando Altman DG, "Estatísticas práticas para pesquisa médica" Chapman & Hall, 1991, página 321: "A correlação reduz um conjunto de dados para um único número que não tem relação direta com os dados reais. A regressão é um método muito mais útil, com resultados claramente relacionados à medida obtida. A força da relação é explícita e a incerteza pode ser vista claramente em intervalos de confiança ou intervalos de previsão "
A análise de regressão é uma técnica para estudar a causa do efeito de uma relação entre duas variáveis. enquanto que, a análise de correlação é uma técnica para estudar a quantificação da relação entre duas variáveis.
Correlação é um índice (apenas um número) da força de um relacionamento. Regressão é uma análise (estimativa de parâmetros de um modelo e teste estatístico de sua significância) da adequação de uma relação funcional específica. O tamanho da correlação está relacionado à precisão das previsões da regressão.
Correlação é um termo em uma estatística que determina se existe uma relação entre dois e o grau de relacionamento. Seu intervalo é de -1 a +1. Enquanto regressão significa voltar à média. A partir da regressão, prevemos o valor mantendo uma variável dependente e outra independente, mas deve ser esclarecido o valor de qual variável queremos predizer.