Dizionari Simone
a
b
c
d
e
f
g
h
i
j
k
l
m
n
o
p
q
r
s
t
u
v
w
x
y
z
Catena di Markov
Catena di Markov
Processo stocastico
(v.) discreto nel quale la probabilità che un sistema si trovi in un dato stato ad un certo istante dipende solo dallo stato del sistema all'istante precedente.