首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在元学习过程中,什么时候用meta_batch_size来除以MAML?

在元学习过程中,什么时候用meta_batch_size来除以MAML?
EN

Stack Overflow用户
提问于 2021-03-12 20:08:10
回答 1查看 94关注 0票数 0

我在更高的图书馆里读了这个例子,但在我看来,他们似乎忘了用meta_batch_size来除法,他们有:

代码语言:javascript
复制
qry_loss.backward()

他们应该去的地方

代码语言:javascript
复制
meta_batch_size = qry_loss.size(0)
(qry_loss/meta_batch_size).backward()

这是对的吗?他们应该被meta_batch_size除法吗

参考资料:

使用omniglot:https://github.com/facebookresearch/higher/blob/master/examples/maml-omniglot.py

  • 完整代码示例

如果没有填充梯度字段,请参见以下代码:https://github.com/facebookresearch/higher/issues/129

EN

回答 1

Stack Overflow用户

发布于 2021-03-12 23:14:02

如果您选择正确的步长,它们是“等效的”。

第一条有以下更新规则:

代码语言:javascript
复制
w := w - eta1 (E[l] +- std[l]/sqr{B})

第二名:

代码语言:javascript
复制
w := w - eta2 (B E[l] +- sqrt{B} std[l])

如果eta2 = eta1/B的话,它们是一样的。假设您可以或多或少地用平均+- std替换梯度(不完全是,但没关系,如果它们的分布大致相同,也就足够了)。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/66606540

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档