腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
2
回答
R-安装
text2vec
Ubuntu VM
我正在尝试在亚马逊网络服务的EC2免费层Ubuntu上安装
text2vec
。我收到这个错误消息:Installing package into ‘/usr/local/lib’ ...** libs g++ -std=gnu++11
浏览 7
提问于2018-04-21
得票数 0
1
回答
将DocumentTermMatrix转换为dgTMatrix
我试图通过AssociatedPress的LDA实现从tm-package运行
text2vec
数据集。然而,
text2vec
期望输入x为
text2vec
::lda$fit_transform(x = ...)为Matrix::dgTMatrix。因此,我的问题是:有没有办法强迫DocumentTermMatrix接受
text2vec
接受的东西?最小(失败)示例:library('
text2vec
') data("Associ
浏览 0
提问于2018-04-14
得票数 3
回答已采纳
1
回答
text2vec
与RHadoop的兼容性
目前,我们在亚马逊网络服务EC2(single instance)中使用
text2vec
处理大数据集,未来文本数据会越来越大,我们可能会尝试RHadoop(MapReduce)架构,但不知道它是否能兼容
text2vec
和RHadoop(MapReduce)。
浏览 7
提问于2017-08-13
得票数 0
回答已采纳
1
回答
将
text2vec
dtm写入文件(csv或svmlight)
我今天偶然看到了
text2vec
包,这正是我需要解决特定问题的地方。但是,我还没有弄清楚如何将用
text2vec
创建的dtm导出到某种输出文件中。我的最终目标是使用
text2vec
在R中生成特性,并将生成的矩阵导入H2O以供进一步建模。H2O可以读取CSV或SVMLight格式。
浏览 2
修改于2016-11-27
得票数 1
回答已采纳
1
回答
在R中使用
text2vec
-错误:没有名为‘futile.options’的包
我在R中成功地安装了
text2vec
,但是当我尝试用library(
text2vec
)加载它时,我得到了一个错误:there is no package
浏览 2
修改于2018-10-29
得票数 0
1
回答
词组消去与矢量生成
在
text2vec
中,我能找到的关于Stopword的唯一函数是“create_vocabulary”。但在文本挖掘任务中,通常需要消除资源文档中的断点,然后构建语料库或其他进一步的过程。如何使用“秒针”来处理使用
text2vec
构建语料库、dtm和中医的文档? 我以前使用tm进行文本挖掘。如果使用
text2vec
读取文档,它能将一张纸读入矢量吗?向量的体积是否足以在期刊上发表一篇论文?)否则,在
text2vec
中构建的语料库和向量与在tm中内置的内容兼容吗?
浏览 7
修改于2016-07-12
得票数 1
回答已采纳
1
回答
基于R
text2vec
包和LDAvis在shinyApp中的LDA主题模型
下面是使用R
text2vec
包进行LDA主题建模的代码:dtm = create_dtm(it, vectorizer, type = "dgTMatrix") lda_model =
text2vec
我需要的原因是命令"lda_model$plot()“在R控制台中绘制LDAvis,但我需要在我
浏览 1
修改于2018-09-11
得票数 1
回答已采纳
1
回答
从word向量到文档向量[
text2vec
]
我希望使用在GloVe中实现的
text2vec
单词嵌入来执行监督回归/分类。我在
text2vec
主页上阅读了关于如何生成单词向量的有用教程。但是,我很难掌握如何进一步处理,即
应用
或转换这些单词向量,并将它们附加到每个文档中,使每个文档都由一个向量(从其分量词的向量派生而来)表示,作为分类器的输入。
浏览 0
提问于2017-12-03
得票数 4
2
回答
使用预先训练的模型与
text2vec
?
我想使用一个预先训练的模型与
text2vec
。我的理解是,这里的好处是,这些模型已经接受了大量数据的培训,例如。读取
text2vec
看上去像是刚开始的代码读取文本数据,然后用它来训练一个模型:text8_file = "~/text8" if (!我可以使用
text2vec
来完成这个任务吗?
浏览 1
提问于2018-05-28
得票数 2
回答已采纳
1
回答
我如何创建一个具有n字元特征的tf-以色列国防军矩阵?
如何使用
text2vec
包创建一个具有字符n-gram特性的tdf-idf矩阵?
浏览 0
修改于2018-03-20
得票数 0
回答已采纳
1
回答
text2vec
R包中字嵌入的准备
在
text2vec
包的基础上,给出了一个生成word embedding.The wiki数据的实例,并在此基础上建立了术语共现矩阵(TCM),利用包中提供的手套函数来创建词嵌入。**vignettes code:**library(readr)download.file('http://mattmahoney.netx_max = 10, learning_rate = 0.2,我对开
浏览 0
提问于2016-09-15
得票数 2
回答已采纳
1
回答
dplyr管道函数中的word_tokenizer -输出到列表
我正在尝试使用dplyr管道函数并
应用
text2vec
包中的word_tokenizer。<- c(1,0,0,1)df$text <- as.character(df$text) library(
text2vec
浏览 10
修改于2019-09-10
得票数 2
回答已采纳
1
回答
text2vec
包可以拆分中文句子吗?
如何在
text2vec
中设置切分中文的itoken?这个例子是针对英语的!目前已有的中文分词软件包有:解霸等,但我想用
text2vec
做文本聚类和线性回归模型。此外,如何进行文本聚类?library(
text2vec
)# 数据准备train=movie_review[J(train_ids)]#文档向量化 #
浏览 10
修改于2017-05-08
得票数 0
1
回答
匹配文档与
text2vec
-缩放问题
我使用的是
text2vec
,它提供了非常好和快速的结果。C部分-这是最贵的部分。rm(list = ls())library(dplyr) # example is 10 entries.(t2v_
浏览 0
提问于2018-02-16
得票数 0
回答已采纳
1
回答
在R
text2vec
中绘制文档剪枝对文本语料库的影响
在
text2vec
包中
应用
prune_vocabulary后,是否可以检查语料库中还剩下多少文档?下面是一个获取数据集和修剪词汇表的示例library(data.table)data
浏览 7
修改于2017-03-07
得票数 0
回答已采纳
1
回答
Fit.Matrix中的错误(中医,模型):inherits(模型,"mlapiEstimation")不是真
当我在R中使用fit(tcm,model)运行
text2vec
时,它在 Fit.Matrix(中医,模型):inherits(模型,"mlapiEstimation")不是真
浏览 1
修改于2018-07-22
得票数 2
1
回答
R:如何将数值变量添加到稀疏矩阵?
考虑下面的例子library(glmnet)现在,我可以使用优秀的
text2vec
来获得与text列相对应的稀疏矩阵。要做到这一点,我只需要遵循
text2vec
教程: ids = dataframe$id,
浏览 0
修改于2018-11-23
得票数 1
1
回答
在R中使用自定义标记器将文本转换为向量?
我还想提到一些事情,比如R library(
text2vec
)中也有一个库,但是我不知道如何在R Tokens=words中
应用
我的自定义标记器
浏览 0
修改于2017-11-21
得票数 0
1
回答
使用
text2vec
的困惑问题
正如我经常提到的,我正在使用
text2vec
处理23万个文档。我正在尝试使用perplexity为我的文档术语矩阵找到最佳主题编号。= i)INFO [2019-10-23 13:01:55] early stopping at 20 iteration Error in <em
浏览 19
提问于2019-10-24
得票数 0
回答已采纳
1
回答
当"message=FALSE“不起作用时,我如何在R标记中隐藏消息
我正在使用running和
text2vec
,并希望抑制来自运行glove$fit_transform()函数的消息。library(gutenbergr)library(
text2vec
) h_g_wells
浏览 22
提问于2022-04-29
得票数 0
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券