腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(186)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
2
回答
TextRank算法是否可以归类为
无
监督
机器学习?
TextRank是一种
自动
文本
摘要的方法。许多人将其归类为“
无
监督
”方法。我想知道这是否意味着TextRank被归类为一种
无
监督
的机器学习技术。
浏览 2
提问于2017-05-29
得票数 1
1
回答
基于深度学习的
文本
分类
我有用户的问题,我想要
自动
分类,而不是手动标记他们。什么样的深度学习方法才能更好地从
文本
中进行
文本
分类(如此
无
监督
)。 这些算法必须依赖于字嵌入吗?
浏览 0
提问于2018-07-04
得票数 0
1
回答
如何利用VAE编码特征进行
无
监督
异常检测
我试图通过复制“基于变分
自动
编码器特征提取的
无
监督
异常检测”的方法来实现VAE。或者这里。任何帮助都将不胜感激。谢谢
浏览 6
提问于2022-05-01
得票数 0
2
回答
分段多语言并行
文本
我有多语言
文本
,其中包含一条被翻译成几种语言的消息。例如:Russian message命令不准确。我想设计一种有
监督
/
无
监督
的学习算法来
自动
进行分割,并提取每个翻译,以建立一个并行的数据语料库。 你能提出一些文件/方法吗?我无法获得适当的关键字谷歌。
浏览 2
修改于2014-04-11
得票数 1
回答已采纳
1
回答
有没有一种
无
监督
的聚类技术可以自己识别数字聚类?
我在gensim,find text,sklearn上检查了无
监督
聚类,但没有找到任何文档,在这些文档中,我可以使用
无
监督
学习对
文本
数据进行聚类,而不是提到要识别的聚类数量 例如,在sklearn KMneans在我的例子中,我有
文本
,它应该
自动
识别其中的聚类数量,并对
文本
进行聚类。任何参考文章或链接非常感谢。
浏览 0
修改于2018-09-21
得票数 0
3
回答
如何从Project Gutenberg
文本
中剥离页眉/页脚?
我尝试了各种方法从project Gutenberg
文本
中剥离许可证,以用作语言学习项目的语料库,但我似乎想不出一个
无
监督
的、可靠的方法。到目前为止,我想出的最好的启发式方法是剥离前28行和最后398行,这适用于大量
文本
。任何关于如何
自动
剥离
文本
的建议(这对于许多
文本
非常相似,但在每种情况下都略有不同,以及一些不同的模板),以及如何验证
文本
是否已被准确剥离的建议,都将非常有用。
浏览 0
修改于2011-04-14
得票数 20
回答已采纳
1
回答
在rapidminer 7中将集群保存在
文本
文件中
在我的研究中,我使用RapidMiner 7运行
无
监督
的学习算法。我的需求要求我将集群(结果)保存在
文本
文件中。我发现了RapidMiner
5
中使用的一些方法,但在当前版本中不再可用。
浏览 2
提问于2016-05-25
得票数 1
回答已采纳
1
回答
创建包含相似
文本
的
文本
聚类
我想对
文本
做类似的操作。我想创建包含相似
文本
的
自动
聚类。例如,cluster-1可以包含代表职业母亲的所有
文本
,cluster-2可以包含代表人们谈论食物等内容的所有
文本
。我知道这必须是
无
监督
的学习。我还检查了google的tensorflow,看看是否可以从中获得一些东西,但在它的文档中没有找到任何与
文本
聚类相关的内容。
浏览 1
提问于2018-06-11
得票数 0
2
回答
抽取
文本
摘要,作为一种使用深度网络的分类问题
我想实现一个
文本
摘要系统。我已经尝试了一种抽象的方法,现在我正在尝试一种抽象化的方法。目前的采掘方法(Textrank,Lexrank等)并没有提供最佳的性能。有人建议我把它当作一项
无
监督
的学习任务,使用
自动
编码器/RBM或K均值或任何其他
无
监督
学习算法将句子归类为重要的或不重要的。这样的事可行吗?
浏览 0
修改于2017-06-30
得票数 2
2
回答
连续训练
监督
学习问题
注意,我主要处理
文本
数据(NLP问题)。
无
监督
分类(问题:在封闭域问题上不太有效,因为大多数
无
监督
模型要么是统计性的,提供了公正的准确性,要么是不合适的,或者接受了公共领域数据的培训)。强化学习(问题:现实世界的NLP数据并没有贴上标签,不像一辆
自动
驾驶的汽车,在那里反馈是即时的)
浏览 0
修改于2020-08-06
得票数 1
2
回答
非
文本
数据的主题模型?
我希望在一个数据集上使用一个
无
监督
的聚类,其中每个观察都有一个
文本
和非
文本
特性的混合。使用
自动
编码器(还是嵌入?)为什么主题模型(在我的经验中)不常见于非
文本
数据?这仅仅是他们的名字/原始应用程序的遗物,还是有更基本的东西? 谢谢!
浏览 0
提问于2019-12-09
得票数 0
1
回答
主管有日志中断
我增加了每
5
秒
打
印一次
文本
的程序。对于主管服务,当我读取输出日志时,有时会出现如下所示的中断。哪里有问题?我登录到supervisorctrl,在这种模式下,I:tail test_s和我有时会在报告中中断,如下面的I 15:06所示,暂停一下..。您在15-03-02运行使用主管的测试程序.干得好达瑞克:) #!time.sleep(
浏览 2
修改于2019-11-16
得票数 0
回答已采纳
1
回答
Weka:基于多个
文本
属性的
文本
情感分析
我希望做多个
文本
属性的
文本
情感分析。我遵循了这个伟大的,它可以用于单个
文本
属性及其类正或负。我想把这个想法同时扩展到多个属性。为了说明清楚,下面是我试图做的事情的一个例子: 这是进行
文本</e
浏览 1
修改于2020-06-20
得票数 0
回答已采纳
1
回答
训练编码器.使用解码器输出的解码器
我正试图为
文本
类型的传输问题建立一个编解码模型。问题是我在这两种样式之间没有并行数据,所以我需要在一个
无
监督
的环境中训练模型。 我见过的一些文章使用
自动
编码器分别训练编码器和解码器组件。通过将问题设置为
自动
编码器,他们可以通过将目标序列(等于输入序列)传递到解码器中来训练解码器。(以下是一些例子,https://arxiv.org/pdf/1711.06861.pdf,https://arxiv.org/pdf/1804.04
浏览 0
提问于2018-07-07
得票数 2
回答已采纳
1
回答
从纯
文本
中提取结构化数据的实用方法:寻找想法和反馈
我没有那么先进的NLP/
文本
挖掘技术,可以在生产中实现,所以我在这里寻找一些关于我的想法的意见:StanfordNLPBuild 使用一个普通的NLP库,这是一个典型的预处理管道备选方案c):
无
监督
学习(选项c)是我最喜欢的,也是技术上最有趣的选项,但我刚刚开始阅读这个主题我对此有一些想法: 如何将
自动
编码器指向我特别感兴趣的信息?--我读到
浏览 3
修改于2020-06-20
得票数 0
1
回答
是否有无
监督
培训的情感论坛数据?
其想法是: 这将是我的第一个机器学习项目(作为一个概念的证明),因此,任何意见将非常感谢。我发现的最大问题是,我想要制作一个
无
监督
培训,并且我需要一个样本数据集来进行培训。 问题:是否有任何已知的论坛情绪数据可用于
无
监督
的培训?
浏览 0
提问于2018-10-17
得票数 0
1
回答
如何停止将
文本
“type=/javascript”添加到脚本标记?
当我用sublime text 2
打
开HTML文档中的脚本标记时,它会
自动
添加
文本
“type=/javascript”,但我不想要它,因为HTML
5
规范中不需要它。我怎么才能阻止它这么做呢?
浏览 1
提问于2013-01-21
得票数 0
2
回答
如何使用POST发送Mirth HTTP连接器
我们设置了以下选项:那么我们有
5
个查询参数-内容类型
文本
/普通内容:
文本
“无数据”。 我们使用的是Mirt
浏览 0
修改于2014-04-18
得票数 3
回答已采纳
2
回答
如何基于训练数据识别
文本
相似度?
让我们假设:Doc No: 2,4,9 - Belongs to Type BDoc No, 6,11 - Belongs to No one 现在,让我们假设我有新来的文件- 11,12,13 ..依此类推,我想知道它们属于哪种类型(A、B、C或
无
),这是基于该类型中现有文档的
文本
相似性我是否应该创建自己的数据集,并将其视为一个受
监督
的问题?
浏览 0
修改于2020-12-15
得票数 2
0
回答
Vim:为纯
文本
文件生成目录(不是Markdown)?
对于在Vim中
自动
生成纯
文本
文件(.txt或
无
扩展名)中的目录,有什么方法/建议吗?其中(为方便起见)
标
头可以采用markdown语法: Lorem ipsum dolor sit amet, consectetur adipiscing elit
浏览 8
提问于2018-07-16
得票数 1
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
点击加载更多
领券