Estados
Definição
Um processo de Markov é um processo estocástico em que a probabilidade de o sistema estar num estado específico num determinado período de observação depende apenas do seu estado no período de observação imediatamente precedente
O futuro apenas depende do presente e não do passado
Cadeias de Markov discretas
X_n: estado após n transições
Pertence a um conjunto finito,
Em geral { 1, 2, ..., m }
X_0 é dado ou aleatório
Propriedade de Markov
Probabilidade de transição do estado i para o estado j
Pji = P(X_(n+1) = j|X_n = i, X(n-1) = x(n-1), ..., X_0 = x_0)
= P( X_n+1 = j | X_n = i)
Quando estas probabilidades Pji não dependem de n a cadeia diz-se homogénea
Focaremos a nossa atenção neste tipo de cadeias de Markov
Especificação de uma cadeia
Identificar os estados possíveis
Identificar as transições possíveis
Identificar as probabilidades de transições
Last updated