首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >贝叶斯推理模型有问题- JAGS with R

贝叶斯推理模型有问题- JAGS with R
EN

Stack Overflow用户
提问于 2018-12-30 22:35:59
回答 1查看 67关注 0票数 0

我一直在尝试使用R和JAGS重现下面这篇论文的结果,但没有成功。我可以运行模型,但显示的结果始终不同。

论文链接:https://www.pmi.org/learning/library/bayesian-approach-earned-value-management-2260

例如,本文的目的是使用从项目管理报告中收集的数据来估计项目完成日期或完成时的预算。项目绩效主要是通过使用挣值度量来报告的,挣值度量基本上由实际完成的工作量与截至里程碑日期的计划完成的工作量之间的比率组成(换句话说,“完成的工作量/计划的工作量”)。因此,如果我在项目的第三个月花费了300.000美元来生产之前计划花费270.000美元的工作量,那么我的成本性能指数(CPI)是300.000/270.000 = 1.111。同样,如果到了第三个月,我已经完成了与计划到第二个月完成的工作量相对应的工作量,那么我的计划绩效指数(SPI)是2/3 = 0.667。

这篇论文背后的一般问题是如何使用绩效测量来更新对最终项目绩效的先验信念。

我的代码如下所示。我必须对数据执行转换(在接受log()之前添加1,因为其中一些是负数,并且JAGS返回错误(这就是为什么我的模型上的参数与论文的表4中显示的参数不同)。

论文中使用的模型是对数正态分布,作为正态和逆伽马上µ和sigma的似然和先验。由于BUGS语法使用tau =1/(方差)作为Normal和Lognormal的参数,所以我在tau上使用了Gamma分布(这对我来说很有意义)。

代码语言:javascript
复制
model_pmi <-  function() {  
   for (i in 1:9) {
cpi_log[i] ~ dlnorm(mu_cpi, tau_cpi)
spi_log[i] ~ dlnorm(mu_spi, tau_spi)
}

tau_cpi ~ dgamma(75, 1)
mu_cpi ~ dnorm(0.734765, 558.126)
cpi_pred ~ dlnorm(mu_cpi, tau_cpi)
tau_spi ~ dgamma(75, 1.5)
mu_spi ~ dnorm(0.67784, 8265.285)
spi_pred ~ dlnorm(mu_spi, tau_spi)

}

model.file <- file.path(tempdir(), "model_pmi.txt")  
write.model(model_pmi, model.file)

cpis <- c(0.486, 1.167, 0.856, 0.770, 1.552, 1.534, 1.268, 2.369, 2.921)
spis <- c(0.456, 1.350, 0.949, 0.922, 0.693, 0.109, 0.506, 0.588, 0.525)
cpi_log <- log(1+cpis)
spi_log <- log(1+spis)

data <- list("cpi_log", "spi_log")

params <- c("tau_cpi","mu_cpi","tau_spi", "mu_spi", "cpi_pred", "spi_pred")
inits <- function() { list(tau_cpi = 1, tau_spi = 1, mu_cpi = 1, mu_spi = 1, cpi_pred = 1, spi_pred = 1) }

out_test <- jags(data, inits, params, model.file, n.iter=10000)

out_test

在论文中发现的95% CI (2.5%;97.5%)是CPI的(1.05;2.35)和(0.55;1.525)。该模型给出了如下所示的结果。对于CPI,结果相当接近,但当我看到SPI的结果时,我认为这应该是偶然的。

代码语言:javascript
复制
Inference for Bugs model at 
"C:\Users\felip\AppData\Local\Temp\RtmpSWZ70g/model_pmi.txt", fit using jags,
 3 chains, each with 10000 iterations (first 5000 discarded), n.thin = 5
 n.sims = 3000 iterations saved
         mu.vect sd.vect    2.5%     25%     50%     75%   97.5%  Rhat n.eff
cpi_pred   1.691   0.399   1.043   1.406   1.639   1.918   2.610 1.001  2200
mu_cpi     0.500   0.043   0.416   0.471   0.500   0.529   0.585 1.001  3000
mu_spi     0.668   0.011   0.647   0.660   0.668   0.675   0.690 1.001  3000
spi_pred   2.122   0.893   0.892   1.499   1.942   2.567   4.340 1.001  3000
tau_cpi   20.023   2.654  15.202  18.209  19.911  21.726  25.496 1.001  3000
tau_spi    6.132   0.675   4.889   5.657   6.107   6.568   7.541 1.001  3000
deviance 230.411  19.207 194.463 217.506 230.091 243.074 269.147 1.001  3000

For each parameter, n.eff is a crude measure of effective sample size,
and Rhat is the potential scale reduction factor (at convergence, Rhat=1).

DIC info (using the rule, pD = var(deviance)/2)
pD = 184.5 and DIC = 414.9
DIC is an estimate of expected predictive error (lower deviance is better).

我已经做了好几天了,找不到遗失的东西或者出了什么问题。

EN

回答 1

Stack Overflow用户

发布于 2018-12-31 03:12:27

使用y ~ dlnorm(mu,tau)时,y值是原始缩放值,而不是对数缩放值。但是mutau是在对数尺度上(这是令人困惑的)。

此外,将先验直接放在mutau上可能会在链中产生糟糕的自相关性。重新参数化很有帮助。有关详细信息,请参阅这篇博客文章(我写的):http://doingbayesiandataanalysis.blogspot.com/2016/04/bayesian-estimation-of-log-normal.html

最后,原始标度上的均值、模式和SD是对数标度上的µ和tau的有点复杂的转换。同样,请参阅上面链接的博客帖子。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/53978502

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档