腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(34)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
3
回答
导入
keras-rl
包到conda环境
我已经按照他们的说明在我的电脑上安装了包:cd
keras-rl
所以我的conda环境可以看到这个包,但是当我试图将它作为代码的一部分导入Spyder时,例如import
keras-rl
,我得到了以下错误:使用指向
keras-rl
的短划线的指针。问:如何在Spyder中导入<em
浏览 72
修改于2017-11-06
得票数 2
1
回答
Anaconda如何导入
keras-rl
所以我读到我需要安装
keras-rl
,我按如下方式安装了它: git clone https://github.com/matthiasplappert/keras-rl.git cd
keras-rl
浏览 34
提问于2020-05-03
得票数 2
回答已采纳
1
回答
如何使用
keras-rl
进行多智能体训练
我正在尝试使用
keras-rl
,但使用的是多智能体环境。因此,我找到了这个,它的想法是为所有agents使用共享环境。不幸的是,我没有设法让它工作。似乎在这样的上下文中使用健身房环境是可能的,我只是没有设法让它与
keras-rl
一起工作。有人知道怎么做吗?
浏览 8
提问于2017-11-09
得票数 3
1
回答
深度强化学习(
keras-rl
)提前停止
我之前在Keras上使用过Deep Learning,但是,如何在
keras-rl
上做到这一点?在相同的fit()函数中还是在将模型发送给代理之前?
浏览 47
修改于2019-06-05
得票数 0
回答已采纳
3
回答
Keras-rl
中的Keras LSTM层
我正在尝试使用
Keras-rl
实现一个DQN代理。
浏览 104
修改于2020-04-07
得票数 0
回答已采纳
1
回答
如何在Anaconda中安装
keras-rl
我正在开始研究强化学习模型,但目前我被阻止了,因为我还无法下载一个必要的python包:
keras-rl
。
浏览 178
提问于2020-11-16
得票数 0
1
回答
为什么
keras-rl
示例总是在输出层选择线性激活?
我有一个关于
keras-rl
代理的输出层的激活函数的选择的问题。在
keras-rl
()提供的所有示例中,在输出层选择线性激活函数。为什么会这样呢?如果我使用不同的激活函数,我们会有什么效果?
浏览 17
提问于2017-08-04
得票数 4
回答已采纳
1
回答
具有多输出的
keras-rl
模型
我想要建立一个强化学习模型,它需要有两个输出。它能像Keras库那样做吗?或者它甚至是可行的?inp = Input(shape=(input_layer_size, ))for i in range(nb_hidden_layer):a1 = Dense(1, activation='sigmoid')(x)
浏览 4
提问于2021-12-02
得票数 1
回答已采纳
1
回答
在
keras-rl
中定义操作值。
我在
keras-rl
中有一个自定义环境,构造函数中有以下配置 #Declare the episode as the first episode
浏览 5
提问于2020-04-06
得票数 6
回答已采纳
1
回答
keras-rl
中的处理器类更改形状
好吧,我尝试将一个包含10个整数的列表作为输入提供给
keras-rl
的一个模型,但是,由于我正在使用一个新的OpenAI-Gym环境,我需要根据需要设置我的处理器类。\src\
keras-rl
\rl\core.py in fit(self, env, nb_steps, action_repetition, callbacks, verbose, visualize\src\
keras-rl
\rl\agents\dqn.py in forward(self, observation) 87 # Select an
浏览 6
修改于2020-11-30
得票数 2
1
回答
Keras-RL
集在拟合模型后返回相同值
我正在密切关注DQNAgent的
keras-rl
示例中的CartPole示例,这将导致以下实现: # Option 1 : Simple
浏览 0
提问于2018-07-25
得票数 0
2
回答
无法在jupyter笔记本中导入
keras-rl
我一直在尝试将kera-rl导入到我的jupyter笔记本中,但每次尝试都会遇到这个错误。如何停止获取此错误?
浏览 44
提问于2019-10-21
得票数 0
1
回答
Tensorflow,OpenAI Gym,
Keras-rl
性能问题的基本强化学习实例
我在做强化学习,我的表现也有问题。 提前感谢
浏览 1
修改于2018-08-07
得票数 1
回答已采纳
1
回答
Keras-rl
ValueError“模型有多个输出,DQN期望模型有一个输出”
有什么办法可以避免这个错误吗?我有一个具有15x15输入网格的模型,这将导致两个输出。每个输出有15个可能的值,它们是x或y坐标。我这么做是因为它比网格上的每个位置都有225个单独的输出要简单得多。问题是,当我尝试使用以下代码来训练模型时: policy = BoltzmannQPolicy() dqn = DQNAgent(model=model, memory=memory,policy=policy,n
浏览 20
提问于2022-06-09
得票数 0
回答已采纳
2
回答
OpenAI-Gym和
Keras-RL
: DQN期望每个动作都有一个一维的模型。
env.action_space.shape ) print(model.summary()) #%% Build Agent wit
Keras-RL
浏览 21
修改于2021-12-23
得票数 2
回答已采纳
1
回答
在哪里可以找到已实现的DQfDAgent?
(更新1)pip install -e git+git://github.com/jakegrigsby/keras-rl.git#egg=
keras-rl
Command"git clone -q git://github.com/jakegrigsby/keras-rl.git C:\Users\myuser\src\
keras-rl
" failed with error
浏览 0
修改于2019-03-13
得票数 0
回答已采纳
2
回答
openai健身房-什么是我可以使用的多离散动作空间的代理?
121 121 121 121我很难找到一个能够处理这些空间的代理(例如
keras-rl
这个问题:https://github.com/
keras-rl
/
keras-rl
/issues/224表示
keras-rl
DDPG代理能够处理多个离散的操作空间,但是模型有一个浮点输出,我不能将它用作
浏览 0
修改于2019-07-03
得票数 2
回答已采纳
1
回答
健身房(openAI)环境动作空间取决于实际状态
我正在使用gym工具包创建我自己的env和
keras-rl
,以便在代理中使用我的env。问题是我的操作空间会发生变化,它取决于实际的状态。我不能理解agent (
keras-rl
,dqn agent)如何选择一个动作,它是随机选择的吗?但是从哪里来呢? 有人能帮帮我吗?想法?
浏览 13
修改于2019-10-19
得票数 5
1
回答
如何实时运行和渲染健身房Atari环境,而不是加速?
我正在使用Gym Atari和Tensorflow,以及Windows上的
Keras-rl
。语言是python。
浏览 3
提问于2019-08-17
得票数 1
1
回答
Python强化学习-元组观察空间
我很幸运地使用
keras-rl
训练了一个代理,特别是DQNAgent,但是
keras-rl
没有得到足够的支持,而且文档也很少。对于可以处理这种观察空间的RL包,有什么建议吗?
浏览 73
提问于2019-10-09
得票数 4
回答已采纳
第 2 页
领券