Perguntas com a marcação «convergence»

Convergência geralmente significa que uma sequência de uma certa quantidade de amostra se aproxima de uma constante, pois o tamanho da amostra tende ao infinito. A convergência também é uma propriedade de um algoritmo iterativo para estabilizar em algum valor de objetivo.

1
estimador consistente raiz-n, mas raiz-n não converge?
Já ouvi o termo estimador consistente "root-n" ser usado muitas vezes. Dos recursos pelos quais fui instruído, pensei que um estimador consistente "raiz-n" significava que: o estimador converge para o valor verdadeiro (daí a palavra "consistente") o estimador converge a uma taxa de1 / n--√1/n1/\sqrt{n} Isso me intriga, pois não …

4
Como interpreto uma curva de sobrevivência do modelo de risco Cox?
Como você interpreta uma curva de sobrevivência a partir do modelo de risco proporcional cox? Neste exemplo de brinquedo, suponha que tenhamos um modelo de risco proporcional ao cox na agevariável dos kidneydados e gere a curva de sobrevivência. library(survival) fit <- coxph(Surv(time, status)~age, data=kidney) plot(conf.int="none", survfit(fit)) grid() Por exemplo, …

1
Topologias para as quais o conjunto de distribuições de probabilidade está completo
Tenho lutado bastante para reconciliar meu entendimento intuitivo das distribuições de probabilidade com as propriedades estranhas que quase todas as topologias nas distribuições de probabilidade possuem. Por exemplo, considere uma variável aleatória mista : escolha uma Gaussiana centrada em 0 com variação 1 e com probabilidade 1XnXnX_n , adicionenao resultado. …

1
Simulando Convergência em Probabilidade para uma constante
Os resultados assintóticos não podem ser comprovados por simulação em computador, porque são afirmações que envolvem o conceito de infinito. Mas devemos ter a sensação de que as coisas realmente marcham da maneira que a teoria nos diz. Considere o resultado teórico limn → ∞P( | Xn| >ϵ)=0,ε > 0limn→∞P(|Xn|>ϵ)=0,ϵ>0\lim_{n\rightarrow\infty}P(|X_n|>\epsilon) …


4
(interagindo) MCMC para posterior multimodal
Eu estou tentando provar de uma parte posterior com muitos modos particularmente distantes um do outro usando o MCMC. Parece que, na maioria dos casos, apenas um desses modos contém os 95% hpd que estou procurando. Tentei implementar soluções baseadas em simulação temperada, mas isso não fornece resultados satisfatórios, pois, …

1
Limitando a distribuição de que é o seu padrão normal
Seja (Xn)(Xn)(X_n) uma sequência de variáveis ​​aleatórias iid N(0,1)N(0,1)\mathcal N(0,1) . Defina S0=0S0=0S_0=0 e Sn=∑nk=1XkSn=∑k=1nXkS_n=\sum_{k=1}^n X_k para n≥1n≥1n\geq 1 . Encontre a distribuição limitadora de 1n∑k=1n|Sk−1|(X2k−1)1n∑k=1n|Sk−1|(Xk2−1)\frac1n \sum_{k=1}^{n}|S_{k-1}|(X_k^2 - 1) Esse problema é de um livro de problemas sobre Teoria da Probabilidade, no capítulo sobre o Teorema do Limite Central. Como …

3
Quando e implica ?
A questão: Xn→dXXn→dXX_n\stackrel{d}{\rightarrow}X eYn→dY⟹?Xn+Yn→dX+YYn→dY⟹?Xn+Yn→dX+YY_n\stackrel{d}{\rightarrow}Y \stackrel{?}{\implies} X_n+Y_n\stackrel{d}{\rightarrow}X+Y Eu sei que isso não se aplica em geral; O teorema de Slutsky só se aplica quando uma ou ambas as convergências estão em probabilidade. No entanto, existem casos em que isso ocorre ? Por exemplo, se as seqüências e forem independentes.XnXnX_nYnYnY_n


1
Por que o MAP converge para o MLE?
Em "Aprendizado de máquina: uma perspectiva probabilística" de Kevin Murphy, capítulo 3.2, o autor demonstra o aprendizado do conceito bayesiano em um exemplo chamado "jogo de números": Depois de observar amostras de , queremos escolha uma hipótese que melhor descreva a regra que gerou as amostras. Por exemplo "números pares" …

1
Utilidade prática da convergência pontual sem convergência uniforme
Motivação No contexto da inferência pós-seleção de modelo, Leeb & Pötscher (2005) escrevem: Embora se saiba há muito tempo que a uniformidade (pelo menos localmente) dos parâmetros é uma questão importante na análise assintótica, essa lição foi muitas vezes esquecida na prática diária da teoria econométrica e estatística, onde geralmente …


2
O que é convergência Epsilon em probabilidade?
Eu entendo que a fórmula para probabilidade de convergência é e eu posso resolver problemas usando a fórmula. Alguém pode explicá-lo intuitivamente (como eu tenho cinco anos), principalmente no que é ?P[|Xn−X∞|>ϵ]→0P[|Xn−X∞|>ϵ]→0P[|X_n − X_\infty| \gt \epsilon ]\to 0ϵϵ\epsilon

2
Quais são algumas das razões pelas quais os mínimos quadrados com ponderação iterativa não convergiriam quando usados ​​para regressão logística?
Eu tenho usado a função glm.fit em R para ajustar parâmetros a um modelo de regressão logística. Por padrão, o glm.fit usa mínimos quadrados ponderados iterativamente para ajustar os parâmetros. Quais são algumas das razões pelas quais esse algoritmo falharia ao convergir quando usado para regressão logística?

1
Derivando o algoritmo K-means como um limite de Maximização de Expectativas para Misturas Gaussianas
Christopher Bishop define o valor esperado da função de probabilidade do log de dados completos (ou seja, assumindo que recebemos os dados observáveis ​​X e os dados latentes Z) da seguinte maneira: EZ[lnp(X,Z∣μ,Σ,π)]=∑n=1N∑k=1Kγ(znk){lnπk+lnN(xn∣ μk,Σk)}(1)(1)EZ[ln⁡p(X,Z∣μ,Σ,π)]=∑n=1N∑k=1Kγ(znk){ln⁡πk+ln⁡N(xn∣ μk,Σk)} \mathbb{E}_\textbf{Z}[\ln p(\textbf{X},\textbf{Z} \mid \boldsymbol{\mu}, \boldsymbol{\Sigma}, \boldsymbol{\pi})] = \sum_{n=1}^N \sum_{k=1}^K \gamma(z_{nk})\{\ln \pi_k + \ln \mathcal{N}(\textbf{x}_n \mid …

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.