腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
强化学习中状态、Q和R矩阵的定义
参考的主要书籍:和
1
)在这种情况下,
从
点A到点B需要多少个状态?如何定义Q和R矩阵?List_Ego_pos_temp是一个临时列表,存储了<e
浏览 2
修改于2018-08-08
得票数 0
1
回答
Anylogic中基于优先级的队列
我正在使用基于优先级的队列
从
托盘机架中挑选代理。代理的优先级可以是
0
或
1
。如果palletRack中有10个代理,我想首先选择所有拥有priority=
1
的代理。在当前的流程图中,我的问题是:拥有priority=
0
的
智能
体
在拥有priority=
1
的
智能
体
之前被接收,可能是因为
智能
体
一个接一个地进入和离开队列块,所以多个
智能
体
没有同时出现在队列
浏览 72
提问于2021-05-06
得票数 0
回答已采纳
0
回答
如何删除腾讯云服务器上已安装的龙虾skills?
云服务器
、
alexa-skills-kit
、
服务器
、
腾讯
我用了几个
智能
体
:2、用了kiki
智能
体
删没删掉? 3、
到
服务器根目录上,用
智能
体
也没删掉
浏览 30
提问于2026-03-26
1
回答
如何让强化学习
智能
体
学习一个无休止的跑步者?
我试图训练一个强化学习
智能
体
,使用Unity-ML来玩一个无休止的跑步游戏。作为观察者,我知道下一个障碍物的距离。可能的动作是
0
-空闲;
1
-跳跃。游戏时间越长,奖励越多。 不幸的是,
智能
体
无法学会克服第一个可靠的障碍。我猜这是因为这两个动作的不平衡太高了,因为理想的策略应该是大多数时候什么都不做(
0
),只在非常特定的时间点跳(
1
)。此外,
浏览 0
提问于2018-07-15
得票数 0
1
回答
如何在netlogo中创建与随机代理的链接
现在,我的目标是
从
具有指定概率的剩余代理中选择一个代理$j$,并创建
从
代理$i$
到
代理$j$的链接。我必须为所有的
智能
体
晶格做这件事。每次概率根据不同的
智能
体
而变化时,$i$可以帮助一些人如何在netlogo上实现这一点。谢谢。
浏览 3
提问于2014-07-19
得票数 0
1
回答
检查物体是否被障碍物隐藏
我正在进行模拟,目前正在向it.Now添加障碍物障碍物的目的是使其他
智能
体
可以隐藏在它们后面,而其他
智能
体
看不到them.However。我正在尝试找出检查视图中的
智能
体
是否在障碍物后面从而不可能是障碍物的最佳方法。seen.Here是一个例子:穿黑色的代理应该看不到红色的代理,但是应该能够看到黄色的代理。(绿色线条表示黑色代理的视野) 目前,我的视野只计算
智能
体
所处的角度,并检查该角度是否在视野内。我在想的另一件事是检查障碍物占据视图的角
浏览 2
修改于2013-01-01
得票数 0
回答已采纳
1
回答
如何链接agent的操作?
我试着用3组
智能
体
- A,B,C来编程模拟。重点是A组中的
智能
体
可以选择做或不做动作。如果他们决定不执行该操作,则模拟将停止。当他们决定做动作时,模拟继续
到
下一步,集合B中的代理也可以决定是否做动作。来自集合C的
智能
体
也可以决定是否执行操作,但在这里,两种情况下的模拟都停止了。下面是我的代码:if breed = set A [ ifeslse do?= false [ set lazy]
浏览 0
提问于2014-05-05
得票数 2
1
回答
在Anylogic模拟中很难找到
智能
体
的当前位置
我建立了一个从起始线
到
目标线的行人移动的简单模型,我想使用XY坐标(
从
X=150
到
X=350,Y是相同的)找出某个区域中移动的
智能
体
的数量。 crowd
1
=count(agents(), p-> p.getX()>150 && p.getX()<350) 问题是它始终为
0
,即使在模拟中移动的也是如此。
浏览 1
提问于2018-08-05
得票数 0
回答已采纳
1
回答
组合转向力
我知道每个转向力都等于特定行为的期望速度减去
智能
体
的当前速度。 vSteer = vDesired - currentVelocity = vDesired -
0
= vDesired然而,如果
智能
体
在移动,我们会得
浏览 0
修改于2018-04-21
得票数 1
3
回答
Numpy将较小的矩阵与较大的矩阵相加
如果矩阵上没有代理,则矩阵的值为
0
;如果矩阵上有代理,则矩阵的值为
1
。然后,我的问题是,我希望代理在某种意义上“增长”,即我希望它们由比方(3x3x3)的
1
确定。如果已经有办法做到这一点,但是当
智能
体
靠近边界时,我遇到了麻烦。100x100x100,如果我知道我的代理在位置(x,y,z),我会这样做: positions_matrix = numpy.zeros((100, 100, 100)) positions_matrix[x -
1
:x + 2, y -
1
:
浏览 66
提问于2020-04-16
得票数 1
回答已采纳
2
回答
如何在动态模式下更改RLlib培训代理的学习率
我正在使用ray RLlib库来训练多
智能
体
训练器来玩5人一排的游戏。这是零和环境,所以我有一个
智能
体
行为退化的问题(第一个
智能
体总是赢,5步才能赢)。我有一个想法来改变
智能
体
的学习率:首先训练第一个
智能
体
,第二个是随机的,学习率等于零。在第一个
智能
体
学会如何赢得超过90%的游戏后切换。然后重复,但在构造函数中初始化后,我不能更改学习率。: return "policy_<
浏览 5
提问于2019-09-01
得票数 2
1
回答
根据海龟自身的变量更改NetLogo中代理的颜色
我正在用netlogo编写一个简单的食物交换模型,我希望
智能
体
随着模型中[food]水平的变化而改变他们的颜色。食物的数量在
0
,
1
的范围内,我希望颜色
从
白色变为红色(白色= food级别
0
,红色= food级别
1
),代码如下: ask turtles [ set color scale-color redfood
1
0
] 但是我的乌龟在食物交换过程中不知何故变黑了!海龟自己的food值可以是
0
,
浏览 38
修改于2019-03-05
得票数 0
回答已采纳
2
回答
Q学习转移矩阵
网格世界是这样指定的,即
智能
体
可以在任何给定的状态下以相等的概率采取动作{N,E,W,S},并且所有动作的奖励都是
0
,除非
智能
体
试图移出网格,在这种情况下是-
1
。有两个特殊的状态,A和B,其中
智能
体
将确定性地分别移动到A‘和B’,奖励分别为+10和+5。 我的问题是,我将如何通过Q学习来实现这一点。我希望能够通过矩阵求逆来估计值函数。
智能
体
开始于某个初始状态,不知道任何事情,然后采取由epsilon-greedy算法
浏览 1
提问于2015-04-24
得票数 0
1
回答
如何在Jason (代理语言)中模拟动态行为
我是Jason (代理语言)的初学者,在Jason中使用多
智能
体
模拟进行社会模拟项目。我刚开始学习Jason,所以我是这个声明式类型语言的初学者。我想模拟随时间变化的人的行为。Age=30 yearseducation= collegeetc etc 现在我想虚拟模拟多个
智能
体
因此,基于已经定义的标准,我想知道代理人生活中发生了哪些转变(未婚向结婚,或
从
大学到大学的教育,或
从
失业<em
浏览 0
修改于2017-09-05
得票数 3
1
回答
我怎么才能让每个
智能
体
也回到原来的位置呢?
class AgentControl : MonoBehaviour public List<Transform> points; { if (points.Count ==
0
)agent.pathPending && agent.remainingDistance <
浏览 14
修改于2020-05-13
得票数 0
回答已采纳
1
回答
使用numpy创建并初始化网格(矩阵) 100x100
现在我想知道以下几点:2)如何用40%的
智能
体
A填充
1
;40%的
智能
体
B填充2;20%为空,为
0
。这些代理是随机放置的。
浏览 10
提问于2018-06-09
得票数 -4
2
回答
在同一组织的多个peer上安装
智能
合约
有一个Hyperledger fabric网络具有一个组织Org
1
和四个对等
体
。peer
0
.org
1
.example.compeer3.org
1
.example.com在创建网络时,我们必须在每个对等点上或仅在一个对等点上安装
智能
合约如果它安装在一个对等
体
上,那么其他对等
体
是否会在后台自动获取
智能
合约。在
浏览 2
提问于2020-07-07
得票数 0
1
回答
基于2D网格的游戏:表示通过性
考虑一个基于平铺的游戏,其中每个
智能
体
可以直线/对角移动(在8个方向上)。基本上,这样的地图可以表示为常规的2D网格,其中
0
表示可步行的位置,
1
表示不可步行的位置(我使用Lua):local map = { {
0
,
1
,
1
},} 在这一点上,我们如何根据<e
浏览 0
提问于2012-10-15
得票数 3
回答已采纳
1
回答
使用松露部署命令出错
我想将
智能
合同部署
到
专用网络中。geth datadir=“~/块菌”-端口30303 -rpcport 8545 -rpcaddr localhost -networkid 27441 -rpccorsdomain=“*”-矿丝"
1
“-rpc rpcapi "eth,web3”-对等
体
4-解锁=
0
帐户不存在,或者帐户余额太低,部署失败。
浏览 2
修改于2020-06-20
得票数 0
4
回答
Q学习:改变环境后的重新学习
在学习了1000个时代之后,
智能
体
显然避免了走顶部的道路,而是最频繁地
从
底部到达目标。在学习之后,将底部邻居的奖励设置为-100,将顶部邻居的奖励设置为
0
,并再次开始学习1000个时期,同时坚持使用状态动作值图。这真的很可怕!
智能
体
需要很长时间才能找到目标(在9x9网格上,最多3分钟)。在检查路径后,我已经看到代理在两个状态之间花费了大量时间,比如(
0
,
0
)->(
1
,
0
)->(
0
,<em
浏览 0
修改于2016-03-03
得票数 3
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券