腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
2
回答
具有快速
文本
词
嵌入
的Keras
模型
我正在尝试学习一个语言
模型
来预测一个句子的最后一个单词,给出所有前面的单词使用角语。我想
嵌入
我的输入使用一个学习的快速
文本
嵌入
模型
。Y是形状(44317,300),每一个例子都是句子的最后一个标记的
嵌入
。我为keras
模型
编写的代
浏览 7
修改于2021-11-17
得票数 1
回答已采纳
1
回答
在Keras中使用快速
文本
预训练
模型
作为
嵌入
层
我的目标是创建
文本
生成器,它将生成基于我提供给它的学习集的非英语
文本
。
浏览 11
提问于2020-05-18
得票数 2
1
回答
一种用于非监督
文本
聚类的
嵌入
句子的方法,比手套词更好?
对于无监督
文本
聚类,关键是
文本
的init
嵌入
。BERT不能很好地
嵌入
init。如果我们不使用深度
模型
,是否有更好的方法来获得比手套文字更好的
嵌入
?
浏览 0
提问于2020-07-17
得票数 0
1
回答
用快速
文本
预训练词
嵌入
模型
预测缺失词(CBOW与跳频图)
我决定采用head first方法,从fastText开始,它提供库和经过预处理的数据集,但很快就被困在了文档中:在CBOW
模型
中,将上下文(或周围词)的分布式表示结合起来来预测中间的单词。而在Skip
模型
中,使
浏览 0
修改于2020-03-23
得票数 4
回答已采纳
2
回答
如何将Whisper编码转换为SBERT
嵌入
?
我使用Whisper
模型
来识别语音,然后通过从
文本
中生成SBERT
嵌入
并根据余弦相似性对已知问题进行排序,然后将输出
文本
与已知问题列表进行匹配,并将已知问题与Whisper输出的
文本
的SBERT
嵌入
进行排序我想简化一下这个过程,我知道我可以从低语
模型
输出中获得编码器
嵌入
,而不仅仅是转录的
文本
。 我的问题是:把这些步骤融合在一起的最好方法是什么?更普遍地说,是否有一种很好的方法将
嵌入
从一个
模型
向量空间
浏览 0
提问于2023-02-07
得票数 0
回答已采纳
1
回答
如何允许
文本
输入到TensorFlow
模型
?
我正在用TensorFlow开发一个自定义的
文本
分类
模型
,现在我想用TensorFlow serving来设置它,以便进行生产部署。该
模型
基于通过单独的
模型
计算的
文本
嵌入
进行预测,该
模型
要求将原始
文本
编码为向量。我现在以一种有点脱节的方式工作,一个服务完成所有的
文本
预处理,然后计算
嵌入
,然后将
嵌入
作为
嵌入
的
文本
向量发送到
文本
分类器。如果我们能将所
浏览 19
提问于2020-01-04
得票数 1
回答已采纳
2
回答
如何阻止
文本
分类
模型
仅依赖于输入
文本
中的两个单词而不是整个句子?
我有一个
文本
分类深度学习
模型
,它接收一个
文本
并输出一个softmax概率。我使用手套
嵌入
来表示DL
模型
的数字形式的输入
文本
。那么,我在我的
模型
中做了哪些改变,从
嵌入
技术到网络,或者无论如何,让
模型
不依赖于一些单词,并迫使它考虑整个句子?
浏览 0
提问于2021-11-02
得票数 2
回答已采纳
1
回答
未知目标
文本
大小的
文本
摘要
我正在使用python3中的Tensorflow keras库对未知
文本
大小进行
文本
摘要。 指标0,0= 30不在[0,13][节点
模型
2/
嵌入
_1/
嵌入
浏览 7
提问于2021-07-28
得票数 0
1
回答
关于
文本
分类任务迁移学习的任何有用提示
我正在做一个监督的二进制
文本
分类任务。对于每个站点的
文本
来说,域内性能看起来都很好。(92%~94%)。然而,如果我将一个站点的
文本
培训
模型
直接应用到另一个站点的
文本
上(不进行微调),那么性能就会大大降低。(7%-16%的精度降级)。我已经尝试过的方法:Bert
嵌入
+ logistic回归。(使用bert -as-a-服
浏览 0
修改于2020-07-21
得票数 2
回答已采纳
1
回答
Tensorflow
嵌入
层中的权值更新
在训练seq2seq
模型
时,我想在
嵌入
层中启动一组预先训练的快速
文本
权重,目的之一是减少测试环境中的未知单词(这些未知单词不在训练集中)。由于预训练的快速
文本
模型
词汇量较大,在测试环境中,未知词可以用快速
文本
的词汇向量来表示,在训练集中,这些向量应该与语义相似的词具有相似的方向。然而,由于
嵌入
层中的初始快速
文本
权重将通过培训过程更新(更新权重会产生更好的结果)。我想知道更新的
嵌入
权重是否会扭曲词之间的语义相似性关系,并破坏快速
浏览 2
提问于2017-05-19
得票数 2
回答已采纳
1
回答
在gensim word2vec
模型
中获取给定单词
嵌入
模型
的
文本
概率
我正在尝试使用gensim word2vec
模型
来获得最可能的单词序列。我找到了一个预先训练好的
模型
,它提供了这些文件:word2vec.bin.syn0.npy这是我的代码,试图用这个
模型
获得句子的概率一般来说,我希望使用一些预训练
模型
来获得单词序列一起出现的概率。
浏览 0
提问于2017-09-06
得票数 1
1
回答
如何用bert
嵌入
来训练神经网络
模型
,而不是像手套/快速
文本
那样的静态
嵌入
?
我想找一些人来训练一个传统的神经网络
模型
,它的bert
嵌入
是动态生成的(BERT上下文化
嵌入
,它为相同的单词生成不同的
嵌入
,当不同的上下文出现时,它会产生不同的
嵌入
)。在正常的神经网络
模型
中,我们会用手套或快速
文本
嵌入
来初始化
模型
, embed.weight.data.copy_(some_va
浏览 0
提问于2019-03-27
得票数 6
1
回答
sentence_transformers如何创建
文本
Python
我是语言
模型
培训的新手,我希望有人能解释如何从一个受过训练的
模型
中实际生成
文本
。我在网上找到的任何示例代码都只是
模型
培训和打印出
嵌入
。我不明白
嵌入
的意义。我的目标是打印
文本
。我是否可以使用此代码创建的
模型
来实际解释输入
文本
,而不只是打印
嵌入
?
浏览 5
修改于2022-02-07
得票数 0
1
回答
为什么RNN
文本
生成
模型
将单词预测作为分类任务处理?
在我发现的关于基于单词的RNN
模型
(LSTM或GRU)的
文本
生成的许多来源中,对
模型
进行了训练,以执行跨词汇表的分类任务(例如,使用分类交叉熵损失)来预测下一个单词。可以为启动器找到一个示例这里。在我看来,首先使用像伯特这样的预先训练过的
模型
,为训练/测试数据集中的每个单词获取上下文
嵌入
似乎要实际得多。然后,序列
模型
可以使用一个损失函数来预测单词,该函数使用MSE或余弦相似度(CosineEmbeddingLoss)度量预测与实际
嵌入
之间的距离。
嵌入<
浏览 0
提问于2022-07-10
得票数 1
回答已采纳
1
回答
如何从gensim word2vec
模型
推断新的词向量?
我想使用新的
文本
数据集将新词添加到经过训练的gensim word2vec
模型
中。但是,我希望保留旧的单词
嵌入
,只将数据集中的新单词添加到现有
模型
中。这意味着用新
文本
数据集简单地重新训练旧
模型
不是一种选择,因为它将重新调整也在新
文本
数据集中的先前单词
嵌入
的向量。你能对这项任务有什么建议吗?我想要一些像Gensim的doc2vec推断功能,你给
模型
一些
文本
输入,它给出一个向量作为输出。谢谢。
浏览 3
提问于2018-03-10
得票数 5
1
回答
gensim Word2vec迁移学习(来自非gensim
模型
)
我有一组用神经网络训练的
嵌入
,与gensim的word2vec无关。那么,如何开始将学习从word2vec
文本
文件
浏览 8
提问于2017-12-24
得票数 1
1
回答
文本
嵌入
与数据分割
我创建了一些文档
嵌入
,然后在
文本
分类任务中进一步使用它们。在重新查看我的代码之后,我不确定我用来训练文档
嵌入
的工作流。现在我的问题是:数据分割的合适时机在哪里?在创建文档
嵌入
之前是否应该这样做以防
浏览 0
提问于2019-12-11
得票数 2
回答已采纳
1
回答
Keras --如何使用所学的Embedding()层进行输入和输出?
我想训练一个生成
文本
的
模型
,类似于->
嵌入
-> LSTM -> 1热编码“下一个单词”的词义序列->
嵌入
-> LSTM ->
嵌入
序列-下一个单词的向量 我的问题是,当
模型
正在动态地学习
嵌
浏览 2
提问于2017-02-15
得票数 4
回答已采纳
2
回答
是否可以加载经过训练的Rasa NLU
模型
并运行推理以获得
嵌入
我已经训练了一个supervised_embeddings拉萨NLU
模型
使用rasa train nlu。对于我的特定用例,我现在需要获取输入用户消息的
嵌入
,并将
嵌入
与我的NLU培训数据中的消息进行比较。 是否可以使用Python来加载经过训练的
模型
,并使用它来获得
文本
字符串的
嵌入
?
浏览 6
提问于2020-02-06
得票数 0
回答已采纳
1
回答
使
嵌入
相似的火炬损失函数
我正在研究一个
嵌入
模型
,其中有一个BERT
模型
,它接收
文本
输入并输出多维向量。该
模型
的目的是为相似的
文本
找到相似的
嵌入
(高余弦相似度),对于不相似的
文本
寻找不同的
嵌入
(低余弦相似度)。在小型批处理模式下进行训练时,BERT
模型
给出N*D维输出,其中N是批处理大小,D是BERT
模型
的输出维数。我想做的是通过找到BERT输出中所有
嵌入
的余弦相似性,并将其与目标矩阵进行比较,找到整个批处
浏览 5
修改于2020-12-31
得票数 0
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券