我正在尝试求解二维达西方程,它是一种混合形式。假设我有一个目标向量和源向量,如下所示:
u = [u1,u2,p]
x = [x,y].
grad(u,x) =
[du1/dx, du2/dx, dp/dx;
du1/dy, du2/dy, dp/dy]如果我使用tf.gradients(u,x),我不明白这是不是会发生。
发布于 2021-06-09 15:02:14
tf.gradients(u,x)不会返回您想要的内容,因为
来自https://www.tensorflow.org/api_docs/python/tf/gradients,
gradients()将运算添加到图中,以输出y相对于xs的导数。它返回长度为len( xs )的张量列表,其中每个张量都是y中y和xs中x的和(dy/dx)。
下面是如何获得jacobian的方法。
import tensorflow as tf
x=tf.constant([3.0,4.0])
with tf.GradientTape() as tape:
tape.watch(x)
u1=x[0]**2+x[1]**2
u2=x[0]**2
u3=x[1]**3
u=tf.stack([u1,u2,u3])
J = tape.jacobian(u, x)
print(J)
'''
tf.Tensor(
[[ 6. 8.]
[ 6. 0.]
[ 0. 48.]], shape=(3, 2), dtype=float32)
'''https://stackoverflow.com/questions/67896323
复制相似问题