首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >预训练图嵌入

预训练图嵌入
EN

Data Science用户
提问于 2019-01-20 20:55:42
回答 3查看 533关注 0票数 3

对于DL使用预先训练过的图形嵌入是否有类似于word嵌入的先例?

EN

回答 3

Data Science用户

发布于 2019-01-24 09:46:20

就我所理解的主题而言,嵌入在图形之间是不可移植的,因为每个图都有它们自己的特性,您需要学习这些特性。在字嵌入领域,由于域保持不变(词),它是不同的。

在图的领域中,您通常会在后面嵌入的同一张图上对模型进行训练。在同一张图上进行训练也很重要,因为节点的标签通常是特定于图的节点ID。在单词嵌入领域,该方法根据单词的名称(字母序列)来识别单词,而在图中,节点则由它们的ID来识别。

希望它能解释一点。如果您想了解图形嵌入,通常,我建议您阅读这个故事

票数 1
EN

Data Science用户

发布于 2020-04-09 02:09:52

有几个。最受欢迎的可能是Facebook研究小组在整个维基百科内容中使用他们的PBT进行的嵌入。预训练的嵌入在节点/主题的数量和文件大小(30+GB gzip文件!)方面非常大!

票数 1
EN

Data Science用户

发布于 2020-05-03 15:04:44

你真的在找graph neutral network吗?

请注意,大多数(流行的)图嵌入算法都是无监督学习,从这个意义上说,获得“预训练模型”没有太多意义。

票数 0
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/44307

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档