Perguntas com a marcação «estimators»

Uma regra para calcular uma estimativa de uma determinada quantidade com base nos dados observados [Wikipedia].







1
Qual é a variação deste estimador
Quero estimar a média de uma função f, ou seja, onde e são variáveis ​​aleatórias independentes. Eu tenho amostras de f, mas não de identificação: existem amostras de para e para cada há amostras de :EX,Y[f(X,Y)]EX,Y[f(X,Y)]E_{X,Y}[f(X,Y)]XXXYYYY1,Y2,…YnY1,Y2,…YnY_1,Y_2,\dots Y_nYiYiY_ininin_iXXXXi,1,Xi,2,…,Xi,niXi,1,Xi,2,…,Xi,niX_{i,1},X_{i,2},\dots, X_{i,n_i} Portanto, no total, tenho amostrasf(X1,1,Y1)…f(X1,n1,Y1)…f(Xi,j,Yi)…f(Xn,nn,Yn)f(X1,1,Y1)…f(X1,n1,Y1)…f(Xi,j,Yi)…f(Xn,nn,Yn)f(X_{1,1},Y_1) \dots f(X_{1,n_1},Y_1 ) \dots f(X_{i,j},Y_i) \dots f(X_{n,n_n},Y_n) …

1
estimador consistente raiz-n, mas raiz-n não converge?
Já ouvi o termo estimador consistente "root-n" ser usado muitas vezes. Dos recursos pelos quais fui instruído, pensei que um estimador consistente "raiz-n" significava que: o estimador converge para o valor verdadeiro (daí a palavra "consistente") o estimador converge a uma taxa de1 / n--√1/n1/\sqrt{n} Isso me intriga, pois não …

2
Melhorando o estimador mínimo
Suponha que eu tenho parâmetros positivos para estimar e suas estimativas imparciais não produzidas pelos estimadores , ou seja, , e assim por diante.nnnμ1,μ2,...,μnμ1,μ2,...,μn\mu_1,\mu_2,...,\mu_nnnnμ1^,μ2^,...,μn^μ1^,μ2^,...,μn^\hat{\mu_1},\hat{\mu_2},...,\hat{\mu_n}E[μ1^]=μ1E[μ1^]=μ1\mathrm E[\hat{\mu_1}]=\mu_1E[μ2^]=μ2E[μ2^]=μ2\mathrm E[\hat{\mu_2}]=\mu_2 Gostaria de estimar usando as estimativas disponíveis. Claramente, o estimador ingênuo é enviesado mais baixo como min(μ1,μ2,...,μn)min(μ1,μ2,...,μn)\mathrm{min}(\mu_1,\mu_2,...,\mu_n)min(μ1^,μ2^,...,μn^)min(μ1^,μ2^,...,μn^)\mathrm{min}(\hat{\mu_1},\hat{\mu_2},...,\hat{\mu_n})E[min(μ1^,μ2^,...,μn^)]≤min(μ1,μ2,...,μn)E[min(μ1^,μ2^,...,μn^)]≤min(μ1,μ2,...,μn)\mathrm E[\mathrm{min}(\hat{\mu_1},\hat{\mu_2},...,\hat{\mu_n})]\leq \mathrm{min}(\mu_1,\mu_2,...,\mu_n) Suponha que eu também tenha …

1
Utilidade prática da convergência pontual sem convergência uniforme
Motivação No contexto da inferência pós-seleção de modelo, Leeb & Pötscher (2005) escrevem: Embora se saiba há muito tempo que a uniformidade (pelo menos localmente) dos parâmetros é uma questão importante na análise assintótica, essa lição foi muitas vezes esquecida na prática diária da teoria econométrica e estatística, onde geralmente …

1
O residual, e, é um estimador do erro,
Esta questão surgiu em outro tópico que eu comecei, então pensei em obter mais opiniões das pessoas sobre isso. Minha pergunta é O residual, e, é um estimador do erro, ?ϵϵ\epsilon A razão pela qual pergunto é a seguinte. No OLS, a variação dos resíduos, , é conhecida como variação …


1
MLE de
Deixei X1 1,X2,X3, . . . ,XnX1,X2,X3,...,XnX_{1},X_{2},X_{3},...,X_{n} ser uma amostra aleatória de uma distribuição com pdf f( x ; α , θ ) =e- x / θθαΓ ( α )xα - 1Eu( 0 , ∞ )( x ) , α , θ > 0f(x;α,θ)=e−x/θθαΓ(α)xα−1I(0,∞)(x),α,θ>0f(x;\alpha,\theta)=\frac{e^{-x/\theta}}{\theta^{\alpha}\Gamma(\alpha)}x^{\alpha-1}I_{(0,\infty)}(x ),\alpha,\theta>0 Encontre o estimador de probabilidade …
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.