我是机器学习和Tensorflow的新手,因为我不懂python,所以我决定在那里使用javascript版本(可能更像一个包装器)。
problem是我试图建立一个处理自然语言的模型。因此,第一步是对文本进行标记化,以便将数据提供给模型。我做了很多研究,但大多数人使用的是tensorflow的python版本,它使用的方法是:tf.keras.preprocessing.text.Tokenizer,我在tensorflow.js中找不到类似的方法。我被困在这一步中,不知道如何将文本传输到可以输入到模型的向量。(请帮助:)
发布于 2018-08-03 01:56:09
要将文本转换为向量,有很多方法可以实现,这都取决于用例。最直观的一种方法是使用词频,即给定语料库的词汇量(所有可能的单词),所有文本文档将被表示为一个向量,其中每个条目表示文本文档中单词的出现。
有了这个词汇:
["machine", "learning", "is", "a", "new", "field", "in", "computer", "science"]案文如下:
["machine", "is", "a", "field", "machine", "is", "is"] 将被转化为这个向量:
[2, 0, 3, 1, 0, 1, 0, 0, 0] 这种方法的缺点之一是向量中可能存在大量的0,其大小与语料库的词汇量相同。这就是为什么还有其他的技术。然而,一袋袋话经常被提及。使用tf.idf的版本略有不同。
const vocabulary = ["machine", "learning", "is", "a", "new", "field", "in", "computer", "science"]
const text = ["machine", "is", "a", "field", "machine", "is", "is"]
const parse = (t) => vocabulary.map((w, i) => t.reduce((a, b) => b === w ? ++a : a , 0))
console.log(parse(text))
还有下面的模块可能有助于实现您想要的
发布于 2019-04-15 17:53:23
嗯,我面对这个问题,并通过以下步骤来处理:
tokenizer.fit_on_texts([data])之后,在您的python代码中打印tokenizer.word_index。function getTokenisedWord(seedWord) { const _token = word2index[seedWord.toLowerCase()] return tf.tensor1d([_token]) }const seedWordToken = getTokenisedWord('Hello'); model.predict(seedWordToken).data().then(predictions => { const resultIdx = tf.argMax(predictions).dataSync()[0]; console.log('Predicted Word ::', index2word[resultIdx]); })index2word是word2index json对象的反向映射。发布于 2020-09-17 05:59:32
const vocabulary = ["machine", "learning", "is", "a", "new", "field", "in", "computer", "science"]
const text = ["machine", "is", "a", "field", "machine", "is", "is"]
const parse = (t) => vocabulary.map((w, i) => t.reduce((a, b) => b === w ? ++a : a , 0))
console.log(parse(text))
https://stackoverflow.com/questions/51663068
复制相似问题