腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
绘制
多
智能
体
的变量
我试图绘制一个图表,显示一个品种的所有代理变量。虽然代理的数量相当少,但我认为一定有一个更优雅的方法,而不是为每个代理创建一支笔。在那里吗?
浏览 2
提问于2016-07-11
得票数 2
3
回答
python
多
智能
体
仿真软件包
Python中有没有可以用来模拟市场行为的
多
智能
体
模拟软件包?我试图安装SimPy,但它似乎并不合适。
浏览 0
提问于2012-09-14
得票数 3
4
回答
多
智能
体
游戏的Openai健身环境
在
多
智能
体
游戏中可以使用的吗?具体来说,我想用四个玩家(代理)来模拟一个纸牌游戏。得分的玩家将在下一个回合开始。我如何建模玩家之间的必要协调(例如,谁是下一个)?
浏览 5
提问于2017-06-05
得票数 29
回答已采纳
2
回答
多
智能
体
论证的简易Prolog实现
逻辑编程新手(Prolog)。遇到一个简单的问题,但不知道如何用prolog编码。你能举例说明如何实现这个扎根/1计划来实现这一目标吗?
浏览 0
提问于2013-02-08
得票数 2
回答已采纳
1
回答
具有不同训练算法的
多
智能
体
RLIB
在RLLIB中,可以有多个具有不同学习算法的代理吗?(例如:一个使用DQN的代理和一个使用Q-Learning的代理)?
浏览 1
提问于2020-02-24
得票数 1
1
回答
如何使用keras-rl进行
多
智能
体
训练
我正在尝试使用keras-rl,但使用的是
多
智能
体
环境。因此,我找到了这个,它的想法是为所有agents使用共享环境。不幸的是,我没有设法让它工作。
浏览 8
提问于2017-11-09
得票数 3
1
回答
如何设计时钟驱动的
多
智能
体
仿真
我希望为一个真实的word制造过程建立一个
多
agent仿真模型,以评估一些调度规则。与实际的制造事件日志相比,仿真需要生成事件日志来评估调度规则的时间效果。如何将“当前仿真时间”融入这种
多
agent、消息传递的密集仿真中?在制造科学中,有成千上万的论文使用
多
智能
体
仿真来解决一些与制造相关的问题。然而,我还没有找到一篇论文来描述这些模拟的内部工作原理或实现细节。
浏览 3
修改于2012-04-30
得票数 3
回答已采纳
1
回答
多
智能
体
参数在Cygnus配置中的应用
在Cygnus组件的配置中,multiagent参数的用途是什么?
浏览 18
提问于2019-03-05
得票数 1
1
回答
多
智能
体
(不是深层)强化学习?问题建模
我试图用
多
and强化学习来模拟我的问题,到目前为止,我已经用DQN尝试过了,但是结果或多或少像一个随机方案。可能是为了了解其他用户的行为,用户没有多少上下文信息?或者还有别的原因吗?因此,我不确定这是一个部分可观察的MDP,还是应该被建模为
多
智能
体
单臂盗贼问题,我不知道是否正确。 第二个问题是,我尝试过DQN,但它没有起作用,我想知道这种问题是否可以与表格式Q-学习一起使用?我从未见过有人使用QL的
多
代理作品。任何见解都可能有帮助。
浏览 6
提问于2020-11-21
得票数 0
1
回答
每个Agent 2个动作的
多
智能
体
仿真
这是一个模拟代码,运行一个
多
智能
体系统,开发来模拟价格如何波动的动态过程中,代理人作出他们的行动。每个代理可以根据其价值和价格做出“获取”或“删除”所选选项的决定。
浏览 0
修改于2018-05-04
得票数 3
回答已采纳
1
回答
降低
多
智能
体
环境中单个
智能
体
的动作采样频率
我是第一次使用rllib,并试图训练一个自定义的
多
代理RL环境,并希望在它上面训练几个PPO代理。我需要解决的实现问题是如何改变一个特殊代理的训练,使得这个代理每X个时间步才采取一个行动。
浏览 8
提问于2020-07-14
得票数 0
1
回答
多
智能
体
强化学习环境公共交通问题
在我的Msc论文中,我想把
多
智能
体
RL应用于一个总线控制问题。其想法是,巴士在给定的线路上运行,但没有时间表。
浏览 6
修改于2020-10-31
得票数 1
2
回答
多
智能
体
微观经济仿真中“值”的确定
我试图确定一种客观的方法,让一个自我利益的代理人在一个与Sugarscape (http://en.wikipedia.org/wiki/Sugarscape)相似的
多
agent模拟中,计算出最优的商品买卖价格
浏览 0
修改于2014-03-03
得票数 2
1
回答
通过深度强化学习构建
多
智能
体
环境
在
多
智能
体
环境中,我应该创建自己的环境,并应用dqn算法.如何将其更改为
多
代理?2-如何更改以编写复位?(我应该将每个参数重置为0) 我编写了一些代码,但由于我是dqn和
多
代理方面的初学者,我看到了以下错误:(我知道它也存在一些与
多
代理相关的问题)。
浏览 1
提问于2018-05-08
得票数 0
1
回答
多
智能
体
健身房环境中的随机代理
我无法为
多
智能
体
健身房环境选择随机动作。[0] += action[0][1] - action[0][2]我找不到一个修复,因为没有足够的讨论这些
多
代理环境
浏览 0
提问于2018-11-14
得票数 2
回答已采纳
1
回答
Kevin Leyton-Brown开发的
多
智能
体
学习算法评估平台GAMUT?
测试
、
开发
、
论文
、
算法
、
性能
这个里面介绍了一个评估
多
智能
体
学习算法性能的平台GAMUT,主要是通过生成一系列的博弈游戏来测试相应算法的性能,但是论文里面没有提及具体如何实现,只是给出了实验结果。有人知道应该怎么应用这一平台吗?
浏览 354
提问于2018-04-11
1
回答
多
最小层
多
智能
体
pacman的极大极小算法实现问题
以下是
多
智能
体
pacman的minimax算法的代码片段,其中有多个幽灵(最小玩家)。
浏览 1
提问于2015-03-09
得票数 0
2
回答
重量轻,行为驱动的
多
智能
体
机器人模拟器?
寻找一个机器人模拟器,它是
多
智能
体
,重量轻,行为驱动,和脚本,可视化运行时--它可能也是2D的。不需要将逻辑输出到现实世界。因此,到目前为止,我已经看过以下内容,其中没有一个具有半复杂的行为分配、呈现和报告:Algodoo:,它有2D物理,点-n-点击界面,但是在图形卡上很重,所以我已经测试了
浏览 6
修改于2010-12-18
得票数 2
回答已采纳
1
回答
具有
多
智能
体
的应用程序看起来以随机速度工作。
我编写了一个Java代码,只是为了测试我的CPU在必须进行操作时将如何运行,所以我编写了循环,在100000000000次迭代中将1添加到var: public static void main(String[] args) { int sum = 0; for (int j=0;j<=10000;j++){
浏览 2
修改于2015-12-30
得票数 4
回答已采纳
1
回答
基于强化学习的
多
智能
体
连续空间路径搜索的最佳算法
我正在进行一个项目,在这个项目中,我需要在
多
agent场景中从1点到另一点在连续空间找到最佳的优化路径。我正在寻找适合这个问题的最佳算法,使用强化学习。我尝试过“
多
代理演员-评论家的混合合作竞争环境”,但它似乎没有达到目标,在10000个人。我如何改进这个算法,或者有没有其他的算法可以帮助我做到这一点。
浏览 0
提问于2019-06-24
得票数 0
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券