首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >必须使用dtype float(Tensorflow)为占位符张量“占位符”提供一个值。

必须使用dtype float(Tensorflow)为占位符张量“占位符”提供一个值。
EN

Stack Overflow用户
提问于 2017-12-09 07:03:08
回答 1查看 1.6K关注 0票数 2
代码语言:javascript
复制
import tensorflow as tf
import os
import sklearn.preprocessing
import pandas as pd
import numpy as np

print(os.getcwd())
os.chdir("C:/Users/jbnu/Documents/양지성/Scholar/정규학기/3-2/데이터마이닝실습/프로젝트/현행/bank-additional/bank-additional")

导入和管理数据集

代码语言:javascript
复制
bank = pd.read_csv("bank4.csv", index_col=False)

tf.reset_default_graph()
keep_prob = tf.placeholder(tf.float32)
learning_rate = 0.003

x_data = bank.ix[:,0:9]; print(x_data)
y_data = bank.ix[:, [-1]]; print(y_data)
x_data = sklearn.preprocessing.scale(x_data).astype(np.float32); print(x_data)
y_data = y_data.astype(np.float32)

设置占位符和重量与3层。

代码语言:javascript
复制
X = tf.placeholder(tf.float32, [None, 9]); print(X)
Y = tf.placeholder(tf.float32, [None, 1])

# Layer 1
W1 = tf.get_variable("weight1", shape=[9,15], dtype = tf.float32,
                     initializer=tf.contrib.layers.xavier_initializer())
b1 = tf.get_variable("bias1", shape=[15], dtype = tf.float32,
                     initializer=tf.contrib.layers.xavier_initializer())
layer1 = tf.nn.relu(tf.matmul(X, W1) + b1)
layer1 = tf.nn.dropout(layer1, keep_prob=keep_prob)

# Layer 2
W2 = tf.get_variable("weight2", shape=[15,15], dtype = tf.float32,
                     initializer=tf.contrib.layers.xavier_initializer())
b2 = tf.get_variable("bias2", shape=[15], dtype = tf.float32,
                     initializer=tf.contrib.layers.xavier_initializer())
layer2 = tf.nn.relu(tf.matmul(layer1, W2) + b2)
layer2 = tf.nn.dropout(layer2, keep_prob=keep_prob)

# Layer 3
W3 = tf.get_variable("weight3", shape=[15,15], dtype = tf.float32,
                     initializer=tf.contrib.layers.xavier_initializer())
b3 = tf.get_variable("bias3", shape=[15], dtype = tf.float32,
                     initializer=tf.contrib.layers.xavier_initializer())
layer3 = tf.nn.relu(tf.matmul(layer2, W3) + b3)
layer3 = tf.nn.dropout(layer3, keep_prob=keep_prob)

# Output Layer
W4 = tf.get_variable("weight4", shape=[15,1], dtype = tf.float32,
                     initializer=tf.contrib.layers.xavier_initializer())
b4 = tf.get_variable("bias4", shape=[1], dtype = tf.float32,
                     initializer=tf.contrib.layers.xavier_initializer())
hypothesis = tf.sigmoid(tf.matmul(layer3, W4) + b4)
hypothesis = tf.nn.dropout(hypothesis, keep_prob=keep_prob)

定义成本函数和优化器。

代码语言:javascript
复制
cost = -tf.reduce_mean(Y * tf.log(hypothesis) + (1 - Y) * tf.log(1 - hypothesis))

train = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(cost)

predicted = tf.cast(hypothesis > 0.5, dtype=tf.float32)
accuracy = tf.reduce_mean(tf.cast(tf.equal(predicted, Y), dtype=tf.float32))

训练和准确性测试

代码语言:javascript
复制
# Launch graph
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())

    for step in range(10001):
        sess.run(train, feed_dict={X: x_data, Y: y_data})
        if step % 1000 == 0:
            print("step: ", step, sess.run(cost, feed_dict={X: x_data, Y: y_data}), sep="\n")

    # Accuracy report
    h, c, a = sess.run([hypothesis, predicted, accuracy],
                       feed_dict={X: x_data, Y: y_data})
    print("\nHypothesis: ", h, "\nCorrect: ", c, "\nAccuracy: ", a)

我不知道为什么我的神经网络不起作用。

我经常收到一条消息:“您必须使用dtype float为占位符张量‘占位符’提供一个值”,尽管它们都是float32。

此外,我的辍学率遇到了feed_dict错误。请运行代码并告诉我出了什么问题。

EN

回答 1

Stack Overflow用户

发布于 2017-12-09 16:23:03

它在抱怨退出keep_prob占位符:

代码语言:javascript
复制
keep_prob = tf.placeholder(tf.float32)

如果您不想一直传递它,您应该在feed_dict中与XY一起提供它,或者让它成为一个tf.placeholder_with_default

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/47726203

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档