Em outros contextos, ortogonal significa "em ângulo reto" ou "perpendicular".
O que significa ortogonal em um contexto estatístico?
Obrigado por qualquer esclarecimento.
Em outros contextos, ortogonal significa "em ângulo reto" ou "perpendicular".
O que significa ortogonal em um contexto estatístico?
Obrigado por qualquer esclarecimento.
Respostas:
Isso significa que elas [as variáveis aleatórias X, Y] são 'independentes' uma da outra. Variáveis aleatórias independentes são muitas vezes consideradas como 'ângulos retos' entre si, onde 'ângulos retos' significa que o produto interno dos dois é 0 (uma condição equivalente da álgebra linear).
Por exemplo, no plano XY, diz-se que os eixos X e Y são ortogonais porque, se o valor x de um determinado ponto muda, digamos, passando de (2,3) para (5,3), seu valor y permanece o mesmo (3), e vice versa. Portanto, as duas variáveis são 'independentes'.
Veja também as entradas da Wikipedia para Independência e Ortogonalidade
Não posso fazer um comentário porque não tenho pontos suficientes, então sou forçado a dizer o que penso como resposta, por favor, perdoe-me. Pelo pouco que sei, discordo da resposta selecionada por @crazyjoe porque a ortogonalidade é definida como
Assim:
Se com pdf simétrico, eles são dependentes ainda ortogonais.
Se mas pdf zero para valores negativos, eles dependem, mas não ortogonais.
Portanto, a ortogonalidade não implica independência.
Se X e Y são independentes, são ortogonais. Mas o inverso não é verdadeiro, como apontado pelo exemplo inteligente do usuário497804. Para as definições exatas, consulte
Ortogonal: variáveis aleatórias com valor complexo e são chamadas ortogonais se satisfizerem
(Página 376, Probabilidade e processos aleatórios de Geoffrey Grimmett e David Stirzaker)
Independente: As variáveis aleatórias e são independentes se e somente se para todos os
que, para variáveis aleatórias contínuas, é equivalente a exigir que
(Página 99, Probabilidade e processos aleatórios de Geoffrey Grimmett e David Stirzaker)
O @Mien já forneceu uma resposta e, como apontado pelo @whuber, ortogonal significa não correlacionado. No entanto, eu realmente gostaria que as pessoas fornecessem algumas referências. Você pode considerar úteis os seguintes links, uma vez que explicam o conceito de correlação de uma perspectiva geométrica.
X
e Y
não são correlacionadas se e somente se as variáveis centralizadas X-E(X)
e Y-E(Y)
são ortogonais. [ref]
Um site do NIST (ref abaixo) define ortogonal da seguinte maneira: "Um projeto experimental é ortogonal se os efeitos de qualquer fator se equilibrarem (soma a zero) nos efeitos de outros fatores".
No desenho estatístico, entendo ortogonal o significado de "não cofundado" ou "sem alias". Isso é importante ao projetar e analisar seu experimento, se você quiser identificar claramente diferentes fatores / tratamentos. Se o seu experimento projetado não for ortogonal, significa que você não será capaz de separar completamente os efeitos de diferentes tratamentos. Assim, você precisará realizar um experimento de acompanhamento para desconfigurar o efeito. Isso seria chamado de degngn aumentado ou design comparativo.
Independência parece ser uma má escolha de palavras, pois é usada em muitos outros aspectos do design e da análise.
Ref NIST http://www.itl.nist.gov/div898/handbook/pri/section7/pri7.htm
É mais provável que eles signifiquem "não relacionados" se disserem "ortogonais"; se dois fatores são ortogonais (por exemplo, na análise fatorial), eles não são relacionados, sua correlação é zero.
De acordo com http://terpconnect.umd.edu/~bmomen/BIOM621/LineardepCorrOrthogonal.pdf , a independência linear é uma condição necessária para ortogonalidade ou não correlação. Mas existem distinções mais finas, em particular, ortogonalidade não é falta de correlação.
Fiz uma pergunta semelhante Qual é a relação entre ortogonalidade e a expectativa do produto dos RVs e reproduzo a resposta aqui. Embora a ortogonalidade seja um conceito da Álgebra Linear e signifique que o produto escalar de dois vetores é zero, o termo às vezes é vagamente usado em estatística e significa não correlação. Se dois vetores aleatórios são ortogonais, então sua contrapartida centralizada não está correlacionada, porque a ortogonalidade (produto com ponto zero) implica na não correlação dos vetores aleatórios centralizados (às vezes as pessoas dizem que a ortogonalidade implica que o momento cruzado é zero). Sempre que temos dois vetores aleatórios , sempre podemos centralizá-los em torno de seus meios para fazer com que sua expectativa seja zero. Suponha ortogonalidade (), então a correlação das variáveis aleatórias centralizadas é
Em econometria, a suposição de ortogonalidade significa que o valor esperado da soma de todos os erros é 0. Todas as variáveis de um regressor são ortogonais aos seus termos de erro atuais.
Matematicamente, a suposição de ortogonalidade é .
Em termos mais simples, significa que um regressor é "perpendicular" ao termo do erro.
Dois ou mais IVs não são relacionados (independentes) um ao outro, mas ambos têm influência no DV. Cada IV contribui separadamente com um valor distinto para o resultado, enquanto ambos ou todos os IVs também contribuem de maneira aditiva na predição de renda (ortogonal = influência de IVs sem interseção em um DV). Os IVs não são correlacionais entre si e geralmente posicionados em ângulo reto * veja o diagrama de Venn.
Exemplo: Relação entre motivação e anos de escolaridade em renda.
IV = Anos de Educação IV = Motivação DV = Renda
As variáveis aleatórias relacionadas significam que as variáveis dizem que X e Y podem ter qualquer relacionamento; pode ser linear ou não linear. A independência e as propriedades ortogonais são as mesmas se as duas variáveis estiverem linearmente relacionadas.