腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
2
回答
用于关系提取的
反馈
机制/
学习
有没有一种
反馈
机制,可以让我们纠正关系提取所犯的错误,这样它就会变得更聪明,不会再犯同样的错误?例如,如果它不能将某人的名字识别为一个人,或者它可能无法将某物识别为组织。
浏览 0
修改于2015-10-26
得票数 0
1
回答
学习
计划
反馈
(Kali Linux和渗透测试)
我开始用“渗透测试-佐治亚·魏德曼的黑客入门”一书
学习
了两个月,现在我真的很想了解更多:)。我想我找到了研究多年的合适领域(IT&网络和系统安全)。当我完成我的书,我认为我必须有一个计划,我的
学习
过程,以深入和成为大师。我制定了一个计划,其中有书籍,视频教学和认证,现在我需要一些
反馈
(大师和教授可以帮助我改进它,但任何
反馈
都欢迎任何人)。Cybrary笔测试和伦理黑客(视频图库)无限-逆向工程与开发开发(视频图片集) 渗透测试-Georgia Weidmann
浏览 0
修改于2015-04-24
得票数 4
3
回答
在机器
学习
中使用
反馈
还是强化?
我想知道是否有可能在范例中引入一些
反馈
机制。在控制理论中,引入
反馈
回路是提高系统性能的有效途径。
反馈
方法是否正在进行研究?有人能给点线索吗?
浏览 0
提问于2014-04-04
得票数 16
1
回答
哪些机器
学习
算法支持
反馈
摄入循环?
我知道随机梯度下降。任何其他支持增量训练的算法,最好是实时更新?
浏览 0
提问于2017-05-30
得票数 0
1
回答
基于简单用户
反馈
的机器
学习
RSS阅读器
我创建了一个RSS阅读器,它使用机器
学习
来解构用户标记为受欢迎/不喜欢的文章,对文章的元素(单词、类别、作者.)进行评分。并允许用户过滤掉与其兴趣无关的文章。
浏览 0
修改于2020-09-13
得票数 1
回答已采纳
1
回答
在音频
反馈
抑制机器
学习
过程中实际发生了什么过程?
在训练了一个神经网络(NN)来区分干净的音频信号和带有特定“噪声”的信号之后,机器
学习
模型“清理”了一个未被看到的充满噪声的音频文件,实际发生了什么机制呢?
浏览 0
提问于2023-05-24
得票数 1
回答已采纳
1
回答
在ChatGPT中,强化-从人的
学习
反馈
和数据重新标签之间的区别是什么?
强化-向人
学习
-
反馈
对培训数据-标签-再一次.
浏览 0
修改于2023-02-08
得票数 1
2
回答
在机器
学习
中,
反馈
循环会导致模型变得不那么精确吗?
在关于ML算法的讨论中,例如在犯罪预测中,非专家经常声称
反馈
回路存在问题,导致模型有偏差,并给出了错误的结果。
浏览 0
提问于2019-03-20
得票数 2
2
回答
强化
学习
中的负
反馈
我无法回答这样的问题:,负回报到底是如何帮助机器避免的?这个问题的起源来自。根据他们的逻辑,一旦游戏结束(代理赢或输分),环境返回奖励(+1或-1)。任何中间状态返回0作为奖励。这意味着每一次胜利/松散都会返回0,0,0,0,...,0,1或者0,0,0,...,0,-1奖励数组。然后他们给奖励打折扣并使其标准化:prwd = discount_rewards(rwd, args.gamma)prw
浏览 0
提问于2019-02-19
得票数 0
回答已采纳
2
回答
“强化
学习
”在监督
学习
模型中的应用
是否可以在有监督的模型上使用“强化
学习
”或
反馈
回路?我使用监督
学习
模型(更确切地说是线性回归模型)解决了一个机器
学习
问题,但我希望通过对预测输出创建一个
反馈
环来改进结果,即如果算法在某些例子上出错,就告诉算法。据我所知,这基本上就是强化
学习
的工作原理:该模型从正负
反馈
中
学习
。 我发现我们可以使用PyBrain实现有监督
学习
和强化
学习
算法,但我无法找到两者之间的关联方法。
浏览 2
提问于2019-07-11
得票数 0
1
回答
信息检索
反馈
在实际中的应用
在Coursera的“文本检索和搜索引擎”课程中,我
学习
了一些信息检索系统中的
反馈
算法,比如Rocchio。但我仍然不明白
反馈
是如何在实际中使用的。为什么所有
反馈
都更新查询向量而不是直接更新文档排名?谢谢
浏览 11
提问于2017-11-06
得票数 0
回答已采纳
2
回答
将用户
反馈
纳入ML模型
从UX的立场来看,您不希望用户对特定输入进行两次/三次以上的更正/教系统,系统应该快速
学习
,因此
反馈
应该包含“快速”。这是一个众所周知的事实,他们有能力
学习
/合并(快速)用户提要。一直在快速地集成用户
反馈
(即用户必须在每个数据点最多2到3次的情况下教系统正确的输出,并且系统开始为该数据点提供正确的输出),并且它还确保它维护旧的
学习
,并且不会在旧的数据点上提供错误的输出(在旧的数据点上,它更早地提供了正确的输出),同时结合了对新数据点的
学习
。阅读以下博客中的“
浏览 1
修改于2017-05-23
得票数 17
回答已采纳
1
回答
Java/Python中的自动文本
反馈
分析
我需要为一组在线课程开发一个基于自动
学习
的文本
反馈
分析系统,就像通常的MOOC(如Coursera、EdX等)一样。系统应该扫描句子,理解它的含义。就像。Input:“老师的语言能力很差。”输入:“课程材料不够。” Output:为航向观察标志设置负
反馈
。
浏览 2
提问于2015-02-03
得票数 1
回答已采纳
1
回答
团队基础服务-如何从没有帐户的人那里获得
反馈
?
是否有可能让人们通过没有TFS帐户上的指定用户帐户的
反馈
客户端提供
反馈
? 是否将
反馈
作为对特定项目/迭
浏览 2
修改于2013-06-17
得票数 2
3
回答
JPA 2中的OneToMany关系
我一直在
学习
JPA 2,并了解了OneToMany和ManyToOne的关系。这是我的标准。 @ManyToOneprivate Empl
浏览 4
修改于2014-07-21
得票数 1
回答已采纳
1
回答
QnA服务主动
学习
是否可以处理来自频道的问题?
我在我的QnA服务中激活了主动
学习
选项,以改进它使用来自用户的
反馈
给出的答案,用户在那里会问一些问题,如果分数太低,主动
学习
可以让他们在知识库中选择最好的答案,或者让他们选择任何一个都不是正确的答案。
浏览 3
修改于2019-11-21
得票数 0
回答已采纳
1
回答
强化
学习
:处理不可量化的
反馈
系统
我正在尝试写一个强化
学习
算法,为了简单起见,它将预测一个我认为通过n个输入的数字,它们是什么并不重要。但是这里的
反馈
是无法量化的。 我该如何解决这个问题?仅供参考,我是ML的新手,它没有必要是强化
学习
。我也尝试过神经网络方法,但即使这样也有类似的问题。
浏览 1
提问于2018-05-12
得票数 1
1
回答
我如何使用我从AWS赎回的免费学分?
昨天,我收到了一封来自亚马逊的电子邮件:“感谢您参加AWS峰会并在网上提供
反馈
。我们很高兴地通知您,作为
反馈
忍者,您已经获得了25美元的AWS信用代码。” 我如何使用我赎回的学分?因为我想用它
学习
AWS。
浏览 3
修改于2020-05-31
得票数 0
2
回答
皮林特,PyChecker还是PyFlakes?
我想从以下几个方面得到一些
反馈
: features;adaptability;ease的使用和
学习
曲线.
浏览 7
修改于2021-01-12
得票数 404
回答已采纳
1
回答
在强化
学习
中,智能体是否需要预先知道奖励函数?
就像Q
学习
一样,我们有奖励
反馈
,这是否意味着代理需要提前知道?
浏览 14
提问于2019-12-08
得票数 0
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券