腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(2598)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
LDA
解释
我不知道如何解释
LDA
的R结果。所以,我不知道我是否根据信用风险选择了最好的变量。我给你看下面的代码。
lda
(default ~ ETA, data = train) 0 1 0 34.80251 LD1
lda
(default~ ETA +
浏览 2
修改于2016-10-17
得票数 6
2
回答
标记
LDA
+引导式
LDA
主题建模
我对机器学习、NLP和
LDA
都比较陌生,所以我甚至不确定我是否完全正确地处理了我的问题;但我正在尝试使用已知主题和多个主题选择进行无监督的主题建模。GuidedLDA的指导部分来弥补这些缺陷(我还没有读过关于这方面的论文,但我确实读过https://medium.freecodecamp.org/how-we-changed-unsupervised-
lda
-to-semi-supervised-guidedlda-e36a95f3a164至于为什么我不直接使用引导式
LDA
--我正计划测试它,看看它做得有多好
浏览 47
修改于2019-03-02
得票数 1
1
回答
LDA
直觉
有人能解释
LDA
-主题模型是如何将单词分配给主题的吗?我理解
LDA
模型的生成特性,但是该模型如何认识到“拉布拉多”和“狗”是相似的词/在同一个集群/主题中?有一种相似性度量吗?
LDA
的学习参数是:主题词的分配、主题词的概率向量和文档主题概率向量。但它是如何学会的呢?
浏览 0
提问于2020-05-03
得票数 1
回答已采纳
2
回答
LDA
贡献双程图
代码:library(grid)data(iris) iris.
lda
.values <- predict(iris.
lda
, iris[,-5]) data.
lda
<
浏览 0
修改于2017-04-13
得票数 3
回答已采纳
4
回答
PCA-
LDA
分析-R
在本例()中,在虹膜数据集上对
LDA
进行了检验。我怎样才能对PCA结果(PCA-
LDA
)做
LDA
?. = TRUE) iris,prior = c(1,1,1)/3) plda <
浏览 8
修改于2020-06-25
得票数 1
回答已采纳
2
回答
截断
LDA
主题
我正在训练一个
LDA
模型。虽然我获得了可很好地解释的主题(基于最热门的单词),但特定文档往往大量加载非常“通用”的主题,而不是专门的主题--即使文档中最常见的单词是专门的。
浏览 23
提问于2021-06-30
得票数 0
4
回答
关于
lda
推断
现在,我正在使用MALLET包中的
LDA
主题建模工具对我的文档进行一些主题检测。最初一切都很好,我从中得到了20个主题。然而,当我尝试使用该模型推断新文档时,结果有点令人费解。
浏览 2
修改于2013-02-25
得票数 4
1
回答
更快的
LDA
实现
我正在实现
LDA
,避免使用开箱即用的库.我试过用python / numpy。有100万条记录,词汇量约为2000,只需7分钟就能运行 of sequential。使用具有8个进程的分布式
LDA
版本,可将其速度提高到~5分钟分布式
LDA
::每个进程将对总矩阵的子集执行一个顺序的GibbsSampling,一旦完成,相应的输出矩阵将被加起来。在我的用例中,我需要运行超过2500万个文档的
LDA
,这可能意味着1次运行大约144分钟!然后至少运行100次
LDA
,以确保模型几乎收敛!参考资料:
浏览 2
修改于2017-04-01
得票数 0
1
回答
使用
LDA
预测主题
我正在尝试从我用R的'
lda
‘包构建的fit中提取主题分配。我创建了一个拟合: num.iterations使用'topicmodel‘包,我可以直接调用来获得它(就像在中一样) 我怎样才能得到与'
lda
‘相同的结果?
浏览 2
修改于2017-05-23
得票数 0
1
回答
从Apache Mahout
LDA
包访问
LDA
参数
/mahout
lda
-i /tf-vectors -o -k 4-v 27 我可以看到学习算法的每个迭代(我假设)都有一个文件夹。每个都有一个单独的文件部分-r-0000,我不知道如何访问它。
浏览 2
提问于2010-11-16
得票数 1
1
回答
使用
LDA
进行主题建模
通过定义主题来定义语料库和字典以构建
LDA
模型时,如何区分主题关键字 它在给出一个明确的主题编号的同时工作,但我希望它被迭代。dictionary = corpora.Dictionary(doc_clean) corpus = [dictionary.doc2bow(doc) for doc in doc_clean] 构建
LDA
模型
lda
_model = gensim.models.ldamodel.LdaModel(corpus = corpus , id2word=dictionary , num_topics=10 ,upda
浏览 6
修改于2020-06-20
得票数 0
回答已采纳
2
回答
Gensim
LDA
主题分配
我希望使用
LDA
将每个文档分配给一个主题。现在我意识到你得到的是来自
LDA
的主题的分布。但是,正如您从下面最后一行中看到的,我将其指定为最可能的主题。 corpus = [dictionary.doc2bow(text) for text in texts]
浏览 3
修改于2020-04-20
得票数 12
回答已采纳
1
回答
SKlearn
LDA
与Gensim
LDA
的困惑比较问题
我同时使用sklearn和gensim应用了
lda
。然后,我检查了保留的数据的困惑。 对于gensim的困惑,我得到了负值,对于sklearn,我得到了正值。如何比较这些值。
浏览 3
提问于2016-11-10
得票数 2
2
回答
LDA
和主题模型
我研究过几个weeks.But的
LDA
和主题模型,由于我的数学能力较差,不能完全理解它的内部算法,我使用了GibbsLDA实现,输入了大量的文档,并将主题数设置为100,我得到了一个名为"final.theta但是当我在
LDA
上尝试Blei的C语言实现时,我只得到了一个名为final.gamma的文件,但我不知道如何将该文件转换为主题比例样式。有人能帮我吗。而且我了解到
LDA
模型有很多改进的版本(如CTM,HLDA),如果我能找到一个与
LDA
相似的主题模型,我的意思是当我输入大量文档时,它可以直接输出文档中的主题
浏览 0
修改于2012-03-07
得票数 4
1
回答
带火花的
LDA
模型
实际上,我正在使用Spark2.2.0,而且我已经训练过
LDA
模型val
lda
= new
LDA
().setK(5).setMaxIterations(24),我如何推断新文档的主题?
浏览 4
提问于2017-08-07
得票数 0
回答已采纳
1
回答
带有Python的
LDA
-输入文件
我正在用Python运行
lda
库,并且我正在运行这个示例。有人知道X、Does和title的格式吗?我找不到文档。import numpy as npX =
lda
.datasets.load_reuters()titles =
lda
.datasets.load_reuters_titles()
浏览 2
提问于2015-05-19
得票数 3
1
回答
推断
LDA
模型
我对
LDA
和主题建模很陌生,我想了解一下推理机制。我想应用
LDA
进行活动识别。假设我已经定义了由事件概率分布组成的10个主题。计算与
LDA
发现的每个主题的相似性。 对吗?你对使用相似函数有什么建议吗?
浏览 5
修改于2021-04-22
得票数 0
1
回答
gensim
LDA
训练
我正在为一个项目使用gensim
LDA
模型。我似乎找不到合适的题目。我的问题是,可以肯定的是,每次我训练模特的时候都会重新开始,对吧?我与
LDA
的结果很糟糕,相似度达到了100%或0%,而且我的参数调整也有问题。LSI给了我很好的结果。谢谢!
浏览 1
提问于2021-03-11
得票数 0
回答已采纳
1
回答
LDA
交叉验证评估器
我希望将交叉验证应用于
LDA
算法,以确定主题的数量(K)。我的疑问是关于评估者,因为我希望使用对数似然。我应该在.setEvaluator上设置什么(?)创建交叉验证时?// Define a simple
LDA
.setMaxIter(10)val range = 1 to 20 v
浏览 0
修改于2017-05-23
得票数 3
1
回答
标记
LDA
用法
我正在做一个需要应用主题模型
LDA
的项目。因为在我的例子中,每个文档都是短的,所以我必须使用标签
LDA
。我对这方面的知识不多,我所需要做的就是将LLDA应用于我的数据。我从部分培训中了解到,有标签的
LDA
模型是:在培训之前,我应该给每个输入文档贴上标签。我是不是误会了什么? 如果我的理解是正确的,这将涉及太多的工作在标签文件。
浏览 2
提问于2013-05-24
得票数 3
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券