对于我的强化学习应用程序,我需要能够应用自定义梯度/最小化变化的损失函数。根据documentation的说法,应该可以使用Optimizer.minimize()函数。但是,我的pip安装版本似乎根本没有这个功能。
我的代码:
from tensorflow.python.keras.optimizers import Adam, SGD
print(tf.version.VERSION)
optim = Adam()
optim.minimize(loss, var_list=network.weights)输出:
2.0.0-alpha0
Traceback (most recent call last):
File "/Users/ikkamens/Library/Preferences/PyCharmCE2018.3/scratches/testo.py", line 18, in <module>
optim.minimize(loss, var_list=network.weights)
AttributeError: 'Adam' object has no attribute 'minimize'发布于 2019-04-02 01:01:17
实际上这是有区别的。如果打印这两个类,您将看到:
from tensorflow.python.keras.optimizers import Adam
print(Adam)
print(tf.optimizers.Adam)
<class 'tensorflow.python.keras.optimizers.Adam'>
<class 'tensorflow.python.keras.optimizer_v2.adam.Adam'>因此,在第一种情况下,Adam继承自其他类。它是在Keras训练循环中使用的,因此,它没有最小化方法。为了确保这一点,让我们获取所有类方法
import inspect
from tensorflow.python.keras.optimizers import Adam
print(inspect.getmembers(Adam(), predicate=inspect.ismethod))输出显示这个类甚至没有最小化
https://stackoverflow.com/questions/55459087
复制相似问题