Qual é a diferença entre cadeias de Markov e processos de Markov?
Estou lendo informações conflitantes: às vezes a definição se baseia em se o espaço de estados é discreto ou contínuo e, outras vezes, se o tempo é discreto ou contínuo.
Um processo de Markov é chamado de cadeia de Markov se o espaço de estados for discreto, ou seja, é finito ou contável, o espaço é discreto, ou seja, é finito ou contável.
http://www.win.tue.nl/~iadan/que/h3.pdf :
Um processo de Markov é a versão em tempo contínuo de uma cadeia de Markov.
Ou pode-se usar a cadeia de Markov e o processo de Markov como sinônimos, precisando se o parâmetro time é contínuo ou discreto e se o espaço de estados é contínuo ou discreto.
Atualização 2017-03-04: a mesma pergunta foi feita em https://www.quora.com/Can-I-use-the-words-Markov-process-and-Markov-chain-interchangeably