Perguntas com a marcação «inference»

Tirando conclusões sobre parâmetros populacionais a partir de dados de amostra. Consulte https://en.wikipedia.org/wiki/Inference e https://en.wikipedia.org/wiki/Statistical_inference

6
Por que precisamos de regressão multivariada (em oposição a várias regressões univariadas)?
Acabei de ler este livro maravilhoso: Análise estatística multivariada aplicada por Johnson e Wichern . A ironia é que ainda não sou capaz de entender a motivação para o uso de modelos multivariados (regressão), em vez de modelos univariados separados (regressão). Passei pelas postagens stats.statexchange 1 e 2 que explicam …


2
Devemos abordar vários ajustes de comparações ao usar intervalos de confiança?
Suponha que tenhamos um cenário de múltiplas comparações, como inferência post hoc em estatísticas aos pares ou como uma regressão múltipla, na qual estamos fazendo um total de comparações. Suponha também que gostaríamos de apoiar a inferência nesses múltiplos usando intervalos de confiança.mmm 1. Aplicamos vários ajustes de comparação aos …




2
Que métodos não Bayesianos existem para inferência preditiva?
Na inferência bayesiana, uma distribuição preditiva para dados futuros é obtida pela integração de parâmetros desconhecidos; a integração sobre a distribuição posterior desses parâmetros fornece uma distribuição preditiva posterior - uma distribuição para dados futuros condicionados aos já observados. Quais métodos não bayesianos de inferência preditiva existem que levam em …


6
Qual é a diferença entre estatística descritiva e inferencial?
Meu entendimento era que a estatística descritiva descrevia quantitativamente características de uma amostra de dados, enquanto a estatística inferencial fazia inferências sobre as populações das quais as amostras foram coletadas. No entanto, a página da Wikipedia para inferência estatística afirma: Na maioria das vezes, a inferência estatística faz proposições sobre …


2
Como o método de transformação inversa funciona?
Como o método de inversão funciona? Digamos que eu tenha uma amostra aleatória com densidade acima de e, por conseguinte, com CDF em . Então, pelo método de inversão, recebo a distribuição de como . f ( x ; θ ) = 1X1,X2,...,XnX1,X2,...,XnX_1,X_2,...,X_n 0<x<1FX(x)=x1/θ(0,1)XF - 1 X(u)=uθf(x;θ)=1θx(1−θ)θf(x;θ)=1θx(1−θ)θf(x;\theta)={1\over \theta} x^{(1-\theta)\over \theta} …

2
Como derivar o erro padrão do coeficiente de regressão linear
Para esse modelo de regressão linear univariada, determinado conjunto de dadosyi=β0+β1xi+ϵiyi=β0+β1xi+ϵiy_i = \beta_0 + \beta_1x_i+\epsilon_iD={(x1,y1),...,(xn,yn)}D={(x1,y1),...,(xn,yn)}D=\{(x_1,y_1),...,(x_n,y_n)\} , as estimativas dos coeficientes são β 1 = Σ i x i y i - n ˉ x ˉ y β 0= ˉ y - β 1 ˉ x Aqui está a minha pergunta, …


2
Se o princípio da probabilidade colidir com a probabilidade freqüentista, descartamos um deles?
Em um comentário recentemente publicado aqui, um comentarista apontou para um blog de Larry Wasserman, que aponta (sem nenhuma fonte) que a inferência freqüentista colide com o princípio da probabilidade. O princípio da verossimilhança simplesmente diz que experimentos que produzem funções semelhantes de verossimilhança devem produzir inferência semelhante. Duas partes …

2
Por que é necessário colher amostras da distribuição posterior, se já sabemos a distribuição posterior?
Meu entendimento é que, ao usar uma abordagem bayesiana para estimar valores de parâmetros: A distribuição posterior é a combinação da distribuição anterior e da distribuição de probabilidade. Simulamos isso gerando uma amostra da distribuição posterior (por exemplo, usando um algoritmo Metropolis-Hasting para gerar valores, e os aceitamos se estiverem …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.