Markov chain

n.

  1. 马尔可夫链

网络词典

Markov chain

英 ˈmɑːkəʊv ˈtʃeɪn 美 ˈmɑːkəʊv ˈtʃiːn
名词中文翻译 中文翻译:马尔科夫链
同义词: ['Markov chain', 'Markov model', 'Markov process例句:1. In the Markov chain analysis', 'each state transition is independent of the previous one.(在马尔科夫链分析中,每个状态转移与前一个状态无关。)']

例句:

  1. 1. In the Markov chain analysis, each state transition is independent of the previous one.
    在马尔科夫链分析中,每个状态转移与前一个状态无关。
  2. 2.The Markov chain model can be used to predict future trends in a given dataset.
    马尔科夫链模型可以用来预测给定数据集的未来趋势。
  3. 3. The Markov chain is a popular tool for analyzing temporal data.
    马尔科夫链是分析时间数据的一种流行工具。