网站首页
词典首页
请输入您要查询的短语:
短语
Markov chains
释义
Markov chain
['mɑ:kɔ:f]
【统计学】 马尔可夫链(一个随机事件的序列,其中每一个事件均由紧靠它的前一个事件决定) [亦作 Markoff chain]
随便看
commuter airline
commuter airplane
commuter belt
commuter belts
commuter couple
commuterdom
commuterland
commuter marriage
commuter movement
commuter rail system
commuters
commuter service
commutershed
commuter tax
commuter time
commuterville
commutes
commuting
commuting operators
commutings
commutual
commutuality
commy
Comnenian
Comnenus family
英语短语词组词典共收录525608条英汉双解短语词组词条,基本涵盖了全部常用短语词组的翻译及用法,是英语学习的有利工具。
Copyright © 2004-2022 Fjtmw.com All Rights Reserved
京ICP备2021023879号
更新时间:2025/12/15 22:11:18