Você está correto: um estado absorvente deve ser recorrente. Para ser preciso com as definições: dado um espaço de estados X e uma cadeia de Markov com matriz de transição P definida em X. Um estado x∈X é absorvente se Pxx=1; necessariamente isso implica que Pxy=0, y≠x.
Os estados absorventes são transitórios?
absorção é chamada transiente. Portanto, em uma cadeia de Markov absorvente, existem estados absorventes ou estados transitórios.
O que é estado recorrente?
Em geral, diz-se que um estado é recorrente se, sempre que sairmos desse estado, retornaremos a esse estado no futuro com probabilidade um. Por outro lado, se a probabilidade de retorno for menor que um, o estado é chamado de transitório.
Como você prova que um estado é recorrente?
Dizemos que um estado i é recorrente if Pi(Xn=i para infinitos n)=1. Pi(Xn=i para infinitos n)=0. Assim, um estado recorrente é aquele ao qual você continua voltando e um estado transitório é aquele que você eventualmente deixa para sempre.
O que são estados absorventes?
Um estado absorvente é um estado que, uma vez inserido, não pode ser deixado. Como cadeias de Markov gerais, pode haver cadeias de Markov de absorção de tempo contínuo com um espaço de estados infinito.