Estado transiente
Um estado é transiente se existe um outro estado qualquer para o qual o processo de Markov pode transitar, mas do qual o processo não pode retornar
A probabilidade destes estados tende para zero quando n tende para infinito
Pois apenas são visitados um número finito de vezes
Last updated