Estatísticas e Big Data

Perguntas e respostas para pessoas interessadas em estatística, aprendizado de máquina, análise de dados, mineração de dados e visualização de dados

6
Probabilidade - Por que multiplicar?
Estou estudando sobre estimativa de máxima verossimilhança e li que a função de verossimilhança é o produto das probabilidades de cada variável. Por que é o produto? Por que não a soma? Estou tentando pesquisar no Google, mas não consigo encontrar respostas significativas. https://en.wikipedia.org/wiki/Maximum_likelihood


1
Por que a distribuição amostral de variância é uma distribuição qui-quadrado?
A declaração A distribuição amostral da variância amostral é uma distribuição qui-quadrado com grau de liberdade igual a , onde n é o tamanho da amostra (dado que a variável aleatória de interesse é normalmente distribuída).n−1n−1n-1nnn Fonte Minha intuição Faz um sentido intuitivo para mim 1) porque um teste do …


2
Interpretação do erro médio absoluto em escala (MASE)
O erro médio absoluto em escala (MASE) é uma medida da precisão da previsão proposta por Koehler & Hyndman (2006) . MASE=MAEMAEin−sample,naiveMASE=MAEMAEin−sample,naiveMASE=\frac{MAE}{MAE_{in-sample, \, naive}} onde é o erro absoluto médio produzido pela previsão real; enquanto é o erro absoluto médio produzido por uma previsão ingênua (por exemplo, previsão sem alteração …



2
Por que obtenho variação zero de um efeito aleatório no meu modelo misto, apesar de algumas variações nos dados?
Executamos uma regressão logística de efeitos mistos usando a seguinte sintaxe; # fit model fm0 <- glmer(GoalEncoding ~ 1 + Group + (1|Subject) + (1|Item), exp0, family = binomial(link="logit")) # model output summary(fm0) Assunto e Item são os efeitos aleatórios. Estamos obtendo um resultado ímpar, que é o coeficiente e …



3
Como um prévio inadequado pode levar a uma distribuição posterior adequada?
Sabemos que, no caso de uma distribuição prévia adequada, P(θ∣X)=P(X∣θ)P(θ)P(X)P(θ∣X)=P(X∣θ)P(θ)P(X)P(\theta \mid X) = \dfrac{P(X \mid \theta)P(\theta)}{P(X)} ∝P(X∣θ)P(θ)∝P(X∣θ)P(θ) \propto P(X \mid \theta)P(\theta) . A justificativa usual para esta etapa é que a distribuição marginal de , é constante em relação a e, portanto, pode ser ignorada ao derivar a distribuição posterior.XXXP(X)P(X)P(X)θθ\theta …


2
Agrupando uma matriz binária
Eu tenho uma matriz semi-pequena de recursos binários da dimensão 250k x 100. Cada linha é um usuário e as colunas são "tags" binárias de algum comportamento do usuário, por exemplo, "likes_cats". user 1 2 3 4 5 ... ------------------------- A 1 0 1 0 1 B 0 1 0 …



Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.