我正在google中实现一个简单的线性回归代码,并试图使用以下命令%tensorboard --logdir=/tmp/lr-train来可视化结果。
但是,当我运行这个命令时,tensorboard就没有出现。相反,我只看到以下消息Reusing TensorBoard on port 6012 (pid 3219), started 0:07:06 ago. (Use '!kill 3219' to kill it.)
如何在我的情况下启动张紧板?下面是我试图运行的代码:
%tensorflow_version 1.x
import tensorflow as tf
import numpy as np
N = 100
x_zeros = np.random.multivariate_normal(
mean=np.array((-1, -1)), cov = 0.1 * np.eye(2), size = (N//2))
y_zeros = np.zeros((N//2,))
x_ones = np.random.multivariate_normal(mean=np.array((1, 1)), cov = 0.1 * np.eye(2), size=(N//2))
y_ones = np.zeros((N//2))
x_np = np.vstack([x_zeros, x_ones])
y_np = np.concatenate([y_zeros, y_ones])
with tf.name_scope("placeholders"):
x = tf.placeholder(tf.float32, (N, 2))
y = tf.placeholder(tf.float32, (N, 1))
with tf.name_scope("weights"):
W = tf.Variable(tf.random_normal((2, 1)))
b = tf.Variable(tf.random_normal((1, )))
with tf.name_scope("prediction"):
y_pred = tf.matmul(x, W) + b
with tf.name_scope("loss"):
l = tf.reduce_sum((y - y_pred)**2)
with tf.name_scope("optim"):
train_op = tf.train.AdamOptimizer(0.05).minimize(l)
with tf.name_scope("summaries"):
tf.summary.scalar("loss", l)
merged = tf.summary.merge_all()
train_writer = tf.summary.FileWriter('/tmp/lr-train', tf.get_default_graph())
n_steps = 100
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
# Train model
for i in range(n_steps):
feed_dict = {x: x_np, y: y_np.reshape(-1,1)}
_, summary, loss = sess.run([train_op, merged, l], feed_dict=feed_dict)
if i%10 == 0:
print("step %d, loss: %f" % (i, loss))我在tf-2中尝试了一个例子,并且在相同的命令中没有任何问题地启动了张卡。
发布于 2022-01-29 14:54:32
我在Colab中尝试了您的代码,并能够复制您提到的内容,并找到了如下所述的解决方案。
在—logdir和/tmp/lr-train之间使用“空格”,而不是使用=。
问题中提到的不起作用的东西:
%load_ext tensorboard
%tensorboard --logdir=/tmp/lr-train什么起作用了:
%load_ext tensorboard
%tensorboard --logdir /tmp/lr-train发布于 2022-01-28 09:42:02
您还可以终止活动会话,然后在之后重新运行所有单元格。但也许你甚至在一次会议中找到了一种杀死一个弹力板的方法。
https://stackoverflow.com/questions/63010065
复制相似问题