def word_embedding(shape, dtype=tf.float32, name='word_embedding'):
with tf.device('/cpu:0'), tf.variable_scope(name):
return tf.get_variable('embedding', shape, dtype=dtype, initializer=tf.random_normal_initializer(stddev=0.1), trainable=True,partitioner=tf.fixed_size_partitioner(20))
embedding = word_embedding([vocab_size, embed_size])
inputs_embedding = tf.contrib.layers.embedding_lookup_unique(embedding, inputs)这是我的代码,embedding是word查找自己的嵌入向量的变量。
我已经训练了嵌入矩阵,我想从保存的模型中提取它。该模型还包含其它参数,如嵌入以上的神经网络。我能实现它吗?
发布于 2017-12-29 09:45:08
类似的问题请参见my answer。
最简单的方法是将嵌入矩阵计算到numpy数组中,并将其与解析的单词一起写入文件。
with tf.Session() as sess:
embedding_val = sess.run(embedding)
with open('embedding.txt', 'w') as file_:
for i in range(vocabulary_size):
embed = embedding_val[i, :]
word = word_to_idx[i]
file_.write('%s %s\n' % (word, ' '.join(map(str, embed))))如果只想保存此图的嵌入,可以创建tf.train.Saver并传递要保存的变量列表:
saver = tf.train.Saver([embedding])
with tf.Session() as sess:
saver.save(sess, 'path/to/checkpoint')https://stackoverflow.com/questions/48019799
复制相似问题