腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(14)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
无法加载tensorflow (
tf-agent
)保存模型
我之所以使用tf-agents-nightly,是因为谷歌的冒牌源代码不适用于tf-agents的“稳定”版本(我不确定
tf-agent
是否真的稳定),并且尝试使用tensorflow 1.3和2.0.0
浏览 1
提问于2019-06-11
得票数 7
3
回答
需要使用
tf-agent
的完整示例
我找不到任何使用DdpgAgent的完整示例,这些示例来自TensorFlow中的tf-agents,并且无法使其工作。请有人链接完整的代码或完整的教程,为其创建和培训ddpg代理和data_spec。
浏览 4
修改于2021-02-07
得票数 0
1
回答
如何在张量流中调整
tf-agent
和策略的超参数?
我已经设置了一个包装在张量流类中的python环境,使其成为一个张量流环境。然后,我按照here列出的协作笔记本设置学习。目前,我正在使用dqn和增强剂。 设置运行良好,结果与预期一致。现在我想进入超参数的调整,如衰变的epsilon贪婪,权重等。 我需要一些关于如何使用如何访问这些超参数的文档的指针。
浏览 25
修改于2020-10-29
得票数 1
回答已采纳
1
回答
TF-Agent
深度Q学习:如何提取状态/动作对的预测值?
我有一个使用函数SavedModelPyTFEagerPolicy从磁盘读取的策略。为了排除环境定义的故障,我想检查不同状态的预测值。
浏览 1
提问于2021-08-18
得票数 0
回答已采纳
1
回答
如何在
Tf-agent
中传递自定义环境的批处理大小
我正在使用tf-代理库来构建上下文强盗。为此,我正在构建一个自定义环境。tfpyenvironment自动添加批处理大小维度(在观察规范中)。我需要在_observe和_apply_Action方法中考虑这个批处理大小维度。由于根据批次大小,我应该提供所需的观察(批次大小)数量(用于观察),并且根据批次大小,我应该采取批次大小的操作,并提供奖励(用于应用操作)。 def
浏览 12
修改于2022-03-30
得票数 2
回答已采纳
1
回答
Tf-agent
环境中_observation_spec的形状和_action_spec的形状
在中,有一个简单的扑克牌游戏环境的例子。class CardGameEnv(py_environment.PyEnvironment): self._action_spec = array_spec.BoundedArraySpec( self._observation_spec = array_spec.BoundedArraySpec(
浏览 8
提问于2021-07-03
得票数 1
1
回答
如何在批处理学习中为
tf-agent
定义正确的形状
我正在尝试使用tf_agents库训练一个具有批处理学习功能的DDPG代理。但是,我需要定义一个observation_spec和action_spec,它们说明代理将接收的张量的形状。我已经成功地创建了轨迹,我可以用它来提供数据,但是这些轨迹和代理本身的形状不匹配observation_spec = TensorSpec(shape = (1,),dtype = tf.float32)action_
浏览 25
修改于2019-11-01
得票数 6
1
回答
如何将
tf-agent
的轨迹对象存储在python的大查询中,并将其作为弹道对象检索
我想将tf-代理的轨迹保存到一个大的查询表中,并希望根据需要再次将它们检索回python。这是一个样本轨迹对象,我想把它保存起来,并作为轨迹返回给熊猫。{'action': <tf.Tensor: shape=(1,), dtype=int32, numpy=array([2], dtype=int32)>, 'disco
浏览 4
提问于2022-06-08
得票数 1
1
回答
从TF-代理合并和拆分时间和操作步骤
我试图在一个简单的多智能体非合作并行游戏中使用
TF-agent
。为了简化,我有两个代理,用TF-代理定义。我定义了一个自定义健身房环境,它将代理的组合动作作为输入,并返回一个观察结果。所以我需要做两件事: from tf
浏览 11
提问于2021-03-30
得票数 0
1
回答
如何在蟒蛇中安装tf-代理
我正在尝试使用tensorflow进行一些强化学习,要做到这一点,我必须下载
tf-agent
,这是conda中不自动提供的包。
浏览 7
提问于2020-11-03
得票数 2
1
回答
tf_agents自定义time_step_spec
我正在尝试在健身房'Breakout-v0‘中训练一个
tf-agent
,我已经做了一个函数来预处理观察结果(游戏像素),现在我想修改time_step和time_step_spec来反映新的数据。
浏览 0
修改于2020-05-08
得票数 2
1
回答
tf.agent策略能返回所有动作的概率向量吗?
我正在尝试使用
TF-Agent
来训练强化学习代理.在我的应用程序中,我有一个动作,包含9个可能的离散值(标记为0到8)。
浏览 14
修改于2020-08-27
得票数 7
2
回答
TFUniform /Learner:TFUniform ReplayBuffer维度问题-重放缓冲区的无效形状与Actor更新
我想我当前的代码也会在
tf-agent
libary函数中进行一些调整之后工作,但这将消除libary的目的。
浏览 16
提问于2022-11-19
得票数 0
回答已采纳
1
回答
Tf-Agents ParallelPyEnvironment以静默方式失败
我已经编写了一个自定义环境,这样我就可以使用强化学习(PPO)和
tf-agent
。
浏览 93
提问于2019-08-20
得票数 2
回答已采纳
领券