Estado transiente

Um estado é transiente se existe um outro estado qualquer para o qual o processo de Markov pode transitar, mas do qual o processo não pode retornar

A probabilidade destes estados tende para zero quando n tende para infinito

  • Pois apenas são visitados um número finito de vezes

Last updated