首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Edward中权重的L2正则化

Edward中权重的L2正则化
EN

Stack Overflow用户
提问于 2018-08-07 20:26:08
回答 1查看 97关注 0票数 0

我正在尝试理解如何在Edward models中使用正则化。我还不熟悉tensorflow (它被用作Edward的后端)。考虑下面的模型,

代码语言:javascript
复制
# prior
w=Normal(loc=tf.zeros((d,c)),scale=tf.ones((d,c)))

# likelihood
y=Categorical(logits=tf.matmul(X,w))

# posterior
loc_qw = tf.get_variable("qw/loc", [d, c])
scale_qw = tf.nn.softplus(tf.get_variable("qw/scale", [d, c]))
qw = Normal(loc=loc_qw, scale=scale_qw)

# inference 
inference = ed.KLqp({w: qw, b: qb}, data={X:train_X, y:train_y})

我注意到Edward在其loss function中使用了正则化损失。loss = -(p_log_lik - kl_penalty - reg_penalty)

然而,我不知道如何将正则化损失应用于Edward模型。我们如何将L1或L2正则化添加到上述模型中?

谢谢!

EN

回答 1

Stack Overflow用户

发布于 2018-08-21 13:33:35

我知道正态先验等价于l2正则化。想象一下,如果先验不是正态的,如果我们想使参数正则化,我们在随机优化过程中尝试估计。

我发现这可以使用后验中tf变量的正则化参数来完成。

loc_qw = tf.get_variable("qw/loc", [d, c], regularizer=tf.contrib.layers.l2_regularizer(reg_scale) )

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/51726784

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档