variável de Markov / Markov’s variable.
Processo estocástico no qual o estado de um sistema num dado tempo depende em parte do estado do sistema num tempo imediatamente anterior.
Processo estocástico no qual o estado de um sistema num dado tempo depende em parte do estado do sistema num tempo imediatamente anterior.