processo markoviano
processo markoviano in probabilità, sequenza continua di stati di un processo o di un problema in cui la probabilità di passare da uno stato all’altro in un tempo unitario dipende probabilisticamente soltanto dallo stato immediatamente precedente e non dalla complessiva “storia” del sistema (→ Markov, catena di).