Markovovy řetězce [Markov Chains]
- Termíny
-
Markovovy procesy
Markovův proces
Markovův řetězec
-
Markov Chain
Markov Process
Markovův řetězec popisuje obvykle diskrétní náhodný (stochastický či pravděpodobnostní) proces, pro který platí, že pravděpodobnosti přechodu do následujícího stavu závisejí pouze na současném stavu, ne na předchozích stavech. (upraveno podle Wikipedie 2022 http://www.cs.wikipedia.org/)
A stochastic process such that the conditional probability distribution for a state at any future instant, given the present state, is unaffected by any additional knowledge of the past history of the system.
- DUI
- D008390 MeSH Prohlížeč
- CUI
- M0013045
- Historická pozn.
- 91(75); was see under PROBABILITY 1975-90
- Online pozn.
- search PROBABILITY 1968-74
- Veřejná pozn.
- 91; was see under PROBABILITY 1975-90