我试图为我的强化学习算法创建一个环境,但是,在调用PPOPolicy时,似乎存在一些问题。为此,我开发了以下环境envFru
import gym
import os, sys
import numpy as np
import pandas as pd
from gym import spaces
import random
class envFru(gym.Env):
metadata ={'render.modes': ['human']}
def __init__(self):
self.df = df
self.action_space = spaces.Discrete(2)
self.observation_space = spaces.Box(low=np.array([0,0,0]), high=np.array([1,1,1]), dtype=np.float16)
def reset(self):
pass
def step(self, action):
pass
def _next_observation(self):
pass
def _take_action(self, action):
pass
def render(self, mode = 'human', close=False):
pass
from stable_baselines.common.vec_env import DummyVecEnv
from stable_baselines.common.policies import MlpPolicy
from stable_baselines2.ppo.ppo import PPO
envF = DummyVecEnv([lambda : envFru()])
model = PPOPolicy(envF, MlpPolicy, learning_rate= 0.001)
model.learn(total_timesteps=20000)
obs = env.reset()
for i in range(MAX_EPISODES):
action, _states = model.predict(obs)
obs, reward,done,info = env.step(action)
#env.render()我得到的回溯如下:
AttributeError Traceback (most recent call last)
<ipython-input-124-550b8c75c26b> in <module>
12 envF = DummyVecEnv([lambda : envFruit()])
13
---> 14 model = PPOPolicy(envF, MlpPolicy, learning_rate= 0.001)
15 model.learn(total_timesteps=20000)
16
~\Desktop\ImitationLearning\stable_baselines2\ppo\policies.py in __init__(self, observation_space, action_space, learning_rate, net_arch, activation_fn, adam_epsilon, ortho_init, log_std_init)
29 ortho_init=True, log_std_init=0.0):
30 super(PPOPolicy, self).__init__(observation_space, action_space)
---> 31 self.obs_dim = self.observation_space.shape[0]
32
33 # Default network architecture, from stable-baselines
AttributeError: 'DummyVecEnv' object has no attribute 'shape'发布于 2021-01-27 12:22:35
你确定这是你的实际代码吗?在上面的代码片段中,甚至没有定义名称PPOPolicy。我们需要看到PPOPolicy的代码。显然,它的构造函数(它的__init__方法)期望某些东西作为它的第一个参数,其中包含一个shape艺术品--所以我猜,它需要一个pandas数据。您的envF没有shape属性,因此这将导致错误。
从你的片段中的名字判断,我想你应该写
model = PPOPolicy(
envF.observation_space,
envF.action_space,
MlpPolicy,
learning_rate=0.001
)在相关线路上。
我的假设源于错误信息。
self).init(observation_space,
(PPOPolicy,action_space)
告诉我们,PPOPolicy的构造函数将名为observation_space和action_space的两个变量传递给它的super()构造函数。既然这些名字在你的环境中重新出现了,我想,这就是问题所在。但是,只要我们没有看到正确和完整的代码,这只是导航通过雾。
也许它将帮助您了解一些关于如何读取错误消息的内容。这可能会帮助你解决未来的问题。所以,我建议你读一些类似https://www.tutorialsteacher.com/python/error-types-in-python的书
https://stackoverflow.com/questions/65918970
复制相似问题