对于DL使用预先训练过的图形嵌入是否有类似于word嵌入的先例?
发布于 2019-01-24 09:46:20
就我所理解的主题而言,嵌入在图形之间是不可移植的,因为每个图都有它们自己的特性,您需要学习这些特性。在字嵌入领域,由于域保持不变(词),它是不同的。
在图的领域中,您通常会在后面嵌入的同一张图上对模型进行训练。在同一张图上进行训练也很重要,因为节点的标签通常是特定于图的节点ID。在单词嵌入领域,该方法根据单词的名称(字母序列)来识别单词,而在图中,节点则由它们的ID来识别。
希望它能解释一点。如果您想了解图形嵌入,通常,我建议您阅读这个故事。
发布于 2020-04-09 02:09:52
有几个。最受欢迎的可能是Facebook研究小组在整个维基百科内容中使用他们的PBT进行的嵌入。预训练的嵌入在节点/主题的数量和文件大小(30+GB gzip文件!)方面非常大!
发布于 2020-05-03 15:04:44
你真的在找graph neutral network吗?
请注意,大多数(流行的)图嵌入算法都是无监督学习,从这个意义上说,获得“预训练模型”没有太多意义。
https://datascience.stackexchange.com/questions/44307
复制相似问题