腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(821)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
tf.
GradientTape
与backprop.
GradientTape
的区别
在查看TensorFlow1.15中的OptimizerV2代码时,我注意到它们使用backprop.
GradientTape
来计算梯度。我找不到任何关于这个类的在线参考,只能找到tf.
GradientTape
。两者之间的区别是什么?
浏览 12
修改于2020-03-11
得票数 3
回答已采纳
1
回答
Tensorflow
gradientTape
解释
我正在尝试理解tensorflow tf.
gradientTape
的一个API。下面是我从官网得到的代码: x = tf.constant(3.0) g.watch(x)with tf.
GradientTape
(persistent=True) as g: y = x
浏览 25
提问于2019-10-04
得票数 0
1
回答
GradientTape
不计算梯度
我理解,只要我在tf.
GradientTape
()上下文中定义一个计算,梯度磁带就会计算出计算输出所依赖的所有变量。我认为我并没有完全理解梯度的子属性,因为下面的代码没有像我期望的那样执行:x = tf.Variable(2.)with tf.
GradientTape
as tfx = tf.Variable(2.)t2 = -2*xwith tf.<e
浏览 0
提问于2020-06-01
得票数 2
1
回答
GradientTape
不计算梯度
我理解,只要我在tf.
GradientTape
()上下文中定义一个计算,梯度磁带就会计算出计算输出所依赖的所有变量。我认为我并没有完全理解梯度的子属性,因为下面的代码没有像我期望的那样执行:x = tf.Variable(2.)with tf.
GradientTape
as tfx = tf.Variable(2.)t2 = -2*xwith tf.<e
浏览 6
修改于2020-06-01
得票数 0
1
回答
TF2 -
GradientTape
vs Model.fit() -为什么
GradientTape
不能工作?
使用Model.fit,它可以正确地学习,但与
GradientTape
一样,它也会做一些事情,但与model.fit()相比,损失不会移动。这里我的例子代码和结果。我找不到问题了。model_opt = tf.keras.optimizers.Adam() with tf.
GradientTape
tf.convert_to_tensor(normed_train_data.to_numpy()) y_true = tf.convert_to_tensor(train_
浏览 1
修改于2020-08-23
得票数 2
回答已采纳
1
回答
TensorFlow 2.0
GradientTape
NoneType错误
parameters['W1'] b1 = parameters['b1'] with tf.
GradientTape
浏览 2
修改于2019-11-26
得票数 1
回答已采纳
1
回答
GradientTape
丢失变量的跟踪
我正在使用
GradientTape
()来计算我的梯度。我实现的损失似乎工作得很好,但是我添加的一个新损失没有被
GradientTape
()正确地说明。我使用的是启用了急切执行的TensorFlow。我不理解
GradientTape
的局限性,但我认为它正在“失去主线”,即当输入变量被转换为numpy数组时,如何使用它来弥补损失。 loss = np.abs(self.volume_fraction_target - volume_fraction)
浏览 22
修改于2019-08-17
得票数 1
1
回答
两个序列模型在
GradientTape
中变权和的
GradientTape
不管有没有手表,我都试过了,但它总是通向No gradients provided for any variable alpha = tf.Variable(0.01, name='Alpha', constraint=lambda t: tf.clip_by_valuew_layer.bias * (1-alpha) tf.nest.map_structure(_map
浏览 6
修改于2022-06-19
得票数 1
1
回答
tf.
GradientTape
()返回None
我试着用tf.
GradientTape
来计算梯度。当我尝试这样做时,使用loss和Model.variables (tf.keras.Model)作为输入,这是一个返回None数组的结果。TrainOpe = tf.train.AdamOptimizer(LearningRate, name="MainTrainingOpe") with tf.
GradientTape
浏览 2
提问于2018-08-24
得票数 2
回答已采纳
2
回答
GradientTape
:求nan的梯度
iterate_minibatches(X_train, y_train, batch_size): labels = batch[1] 由于我不确定它是否与我如何将图像数据传递给
GradientTape
浏览 0
修改于2021-12-03
得票数 2
回答已采纳
2
回答
无梯度的tf.
GradientTape
tf.data.Dataset.from_tensor_slices((feature, labels)) with tf.
GradientTape
浏览 13
修改于2022-05-31
得票数 1
回答已采纳
1
回答
使用
GradientTape
训练基本TensorFlow模型
b1 z2 = tf.matmul(w1, x1) + b2 return x2 with tf.
GradientTape
浏览 18
修改于2021-04-01
得票数 0
回答已采纳
2
回答
带有Keras的
GradientTape
返回0
我尝试将
GradientTape
与Keras模型(简化)一起使用,如下所示:tf.enable_eager_execution() target = tf.constant([[1,0,0,0,0,0,0,0,0,0]], dtype=tf.float32) with tf.
GradientTape
浏览 3
提问于2020-05-13
得票数 3
回答已采纳
1
回答
tf.
GradientTape
不能在外面看“with”块
关于TensorFlow的tensorflow.org教程展示了使用tf.
GradientTape
的方法:with tf.
GradientTape
as t:我想知道为什么我不能像这样将t.watch(x)移动到with块之外:t = tf.
GradientTape
浏览 6
修改于2019-09-26
得票数 1
回答已采纳
1
回答
在Tensorflow
GradientTape
中声明变量
pos_loss_class[:, idx].assign(pos_loss) 我的代码很简单:layer = tf.keras.layers.Dense(2, activation='relu')with tf.
GradientTape
浏览 16
修改于2022-07-27
得票数 0
1
回答
tf.
GradientTape
不返回梯度
tf.convert_to_tensor(np.linalg.norm(y - y_), dtype=tf.float32) with tf.
GradientTape
浏览 5
提问于2020-06-04
得票数 1
回答已采纳
1
回答
使用
GradientTape
()计算偏差项的梯度
tf.constant([ [-10.0], [-5.0], [0.0], [5.0], [10.0] ]) with tf.
GradientTape
浏览 7
提问于2019-09-06
得票数 0
回答已采纳
1
回答
无法让
GradientTape
提供非空结果
tf.random.normal(shape=[NUM_EXAMPLES])model = ModelSimple() outputs=tf.Variable(tf.zeros((4,2,5),dtype=np.float32)) with tf.
GradientTape
我尝试了几种方法(包括观察它们使用
GradientTape
,尽管它们是变量),但是我一直
浏览 20
修改于2019-09-11
得票数 0
回答已采纳
1
回答
tf.
GradientTape
()不适用于分片输出
tf.constant([[1, 2], [2, 3]], dtype=tf.float32) tape1.watch(a) [2. 3.]], shape=(2, 2), dtype=float32)正如您可以观察到的,
浏览 10
提问于2020-08-03
得票数 2
1
回答
如何在Tensorflow 2中结合使用
GradientTape
和AutoGraph?
我不知道如何在TensorFlow2中的AutoGraph上运行
GradientTape
代码。 我想在TPU上运行
GradientTape
代码。我想从在CPU上测试它开始。我尝试观察输入变量,并尝试将参数传递给包含
GradientTape
的函数,但都失败了。x * xprint(dy_dx) Output:tf.Tensor(6.0, shape=(), dtype=float32)解释:使用紧急执行,
GradientTape
@tf.function def comput
浏览 13
提问于2019-09-07
得票数 2
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券