256查询网 英汉词典
首页> 英汉词典>Markov chain的意思

Markov chain

英 美
  • n.[统]马尔可夫链

详细释义

Noun:
  1. a Markov process for which the parameter is discrete time values

双语例句

    用作名词 (n.)
    1. To analyze those algorithms, a new method which models point multiplication algorithms as Markov Chain is proposed in this paper.
      为了分析这些算法,文中提出了一种新的方法,即把椭圆曲线标量乘运算看作马尔可夫链。
    2. Based on the Markov chain, this paper investigates the time variant system reliability of brittle structure under multiple time varying loads.
      对由脆性材料组成的结构,应用马尔可夫链分析了系统在时变载荷作用下的时变可靠性问题。

相关词汇

Copyright © 2023 256查询网 All Rights Reserved

Copyright © 2023 www.256cha.com All Rights Reserved

256查询网 赣ICP备18009369号-6

本站部分资料来自网络,如有侵权请速与我们联系删除