Catena di Markov

Catena di Markov

Processo stocastico
(v.) discreto nel quale la probabilità che un sistema si trovi in un dato stato ad un certo istante dipende solo dallo stato del sistema all'istante precedente.