Perguntas com a marcação «markov-process»

Um processo estocástico com a propriedade de que o futuro é condicionalmente independente do passado, dado o presente.

3
Estimando probabilidades de transição de Markov a partir de dados de sequência
Eu tenho um conjunto completo de seqüências (432 observações para ser mais preciso) de 4 estados : por exemploA−DA−DA-D Y=⎛⎝⎜⎜⎜⎜AB⋮BCA⋮CDA⋮ADC⋮DBA⋮AA−⋮BC−⋮A⎞⎠⎟⎟⎟⎟Y=(ACDDBACBAACA−−⋮⋮⋮⋮⋮⋮⋮BCADABA)Y=\left(\begin{array}{c c c c c c c} A& C& D&D & B & A &C\\ B& A& A&C & A&- &-\\ \vdots&\vdots&\vdots&\vdots&\vdots&\vdots&\vdots\\ B& C& A&D & A & B & A\\ …




4
Um exemplo prático para o MCMC
Eu estava passando por algumas palestras relacionadas ao MCMC. No entanto, não encontro um bom exemplo de como é usado. Alguém pode me dar um exemplo concreto. Tudo o que vejo é que eles administram uma cadeia de Markov e dizem que sua distribuição estacionária é a distribuição desejada. Quero …




2
Um MCMC que cumpre o saldo detalhado produz uma distribuição estacionária?
Eu acho que entendo a equação da condição de equilíbrio detalhado, que afirma que, para probabilidade de transição e distribuição estacionária , uma Cadeia de Markov satisfaz um balanço detalhado seqqqππ\piq(x|y)π(y)=q(y|x)π(x),q(x|y)π(y)=q(y|x)π(x),q(x|y)\pi(y)=q(y|x)\pi(x), isso faz mais sentido para mim se eu o reafirmar como: q(x|y)q(y|x)=π(x)π(y).q(x|y)q(y|x)=π(x)π(y).\frac{q(x|y)}{q(y|x)}= \frac{\pi(x)}{\pi(y)}. Basicamente, a probabilidade de transição do …







Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.