Como você vê uma cadeia de Markov ser irredutível?


12

Tenho alguns problemas para entender a propriedade da cadeia de Markov irredutível .

Diz-se que irredutível significa que o processo estocástico pode "ir de qualquer estado para qualquer estado".

Mas o que define se ele pode passar do estado para o estado ou não pode ir?jij


A página da wikipedia fornece a formalização:

Estado é acessível (escrito ) do estado , se existe inteiro st ji n i j > 0 P ( X n i j = j | X 0 = i ) = p ( n i j ) i j > 0ijinij>0

P(Xnij=j | X0=i)=pij(nij)>0

então a comunicação é se e .j iijji

A partir destes irredutibilidade segue de alguma forma.


Qual é a intuição sobre "acessibilidade"? Não entendo por que ter uma probabilidade condicional torna algo "acessível"?
mavavilj

Você pode olhar do ponto de inacessibilidade . Diz-se que o estado é inacessível a partir de se não houver chance de chegar lá a partir de , ou seja, para qualquer número de etapas a probabilidade desse evento permanecer . Para definir a acessibilidade, deve-se trocar os quantores, ou seja, to e para (que é o mesmo que , pois a probabilidade é positiva). i i n 0 = 0 0 > 0jiin0=00>0
Nerci

Respostas:


12

Aqui estão três exemplos de matrizes de transição, os dois primeiros para o caso redutível, o último para o caso irredutível.

P1

P1=(0.50.5000.90.100000.20.8000.70.3)P2=(0.10.10.40.40.50.10.10.30.20.40.20.20001)
Para , quando você estiver no estado 3 ou 4, você permanecerá lá e o o mesmo para os estados 1 e 2. Não há como passar do estado 1 para o estado 3 ou 4, por exemplo.P1

Para , você pode chegar a qualquer estado dos estados 1 a 3, mas quando estiver no estado 4, permanecerá lá. Para isso Por exemplo, você pode iniciar em qualquer estado e ainda pode alcançar qualquer outro estado, embora não necessariamente em uma etapa.P 3 = ( 0,5 0,5 0 0 0 0 0,9 0 0 0 0 0,1 0 0P2

P3=(0.50.500000.900000.10000.800.20.700.100.200000.10.900.90000.10)

5

Diz-se que o estado é acessível a partir de um estado (geralmente indicado por ) se houver tal que: Ou seja, pode-se ir do estado ao estado em passos com probabilidade .i i j n 0 p njiijn0

pijn=P(Xn=jX0=i)>0
ijnpijn

Se ambos e são verdadeiras, então os estados e comunicam (geralmente denotada por ). Portanto, a cadeia de Markov é irredutível se cada dois estados se comunicar.j i i jijjiijij


O em uma potência ou um índice? npijn
mavavilj

É um índice. No entanto, ele tem uma interpretação: se for uma matriz de probabilidade de transição, então é o ésimo elemento de (aqui é uma potência) . p n iP=(pij)pijnijPnn
nmerci

2

Seja e dois estados distintos de uma cadeia de Markov. Se houver alguma probabilidade positiva de o processo passar do estado para o estado , seja qual for o número de etapas (digamos 1, 2, 3 ), então dizemos que o estado é acessível a partir do estado .ijijji

Notadamente, expressamos isso como . Em termos de probabilidade, é expresso da seguinte forma: um estado é acessível a partir do estado , se existir um número inteiro tal que .j i m > 0 pijjim>0pij(m)>0

Da mesma forma, dizemos que, , se existe um número inteiro tal que .n > 0 pjin>0pji(n)>0

Agora, se e são verdadeiros, dizemos que os estados e comunicam entre si e são expressos de forma como . Em termos de probabilidade, isso significa que existem dois inteiros modo que e . j iijjiijijp ( m ) i j > 0 p ( n ) j i > 0m>0,n>0pij(m)>0pji(n)>0

Se todos os estados da cadeia de Markov pertencem a uma classe de comunicação fechada , a cadeia é chamada de cadeia de Markov irredutível . A irredutibilidade é uma propriedade da cadeia.

Em uma cadeia de Markov irredutível, o processo pode ir de qualquer estado para qualquer estado , independentemente do número de etapas necessárias.


1

Algumas das respostas existentes parecem estar incorretas para mim.

Como citado em Processos estocásticos por J. Medhi (página 79, edição 4), uma cadeia de Markov é irredutível se não contiver nenhum subconjunto 'fechado' apropriado que não seja o espaço de estado.

Portanto, se em sua matriz de probabilidade de transição, existe um subconjunto de estados que você não pode 'alcançar' (ou acessar) outros estados além desses, a cadeia de Markov é redutível. Caso contrário, a cadeia de Markov é irredutível.


-1

Primeiro, uma palavra de aviso: nunca olhe para uma matriz, a menos que você tenha uma razão séria para fazê-lo: a única em que consigo pensar é procurar dígitos digitados incorretamente ou ler em um livro didático.

Pexp(P)PPnn

Irredutibilidade significa: você pode ir de qualquer estado para qualquer outro estado em um número finito de etapas.

P3


11
ij

11
Você realmente precisa perguntar ao seu professor. Ele não vai te comer, você sabe.
titus

ePij

Refiro-me ao exponencial de matriz
titus
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.