我是机器学习的新手。我已经为一个问题挣扎了几个星期,我希望有人能在这里帮助我:
我有一个连续变量的数据集,其余的都是绝对的。我设法对分类变量进行编码,并希望构建一个多输出分类器。
这是我的数据集:我的数据集的快照我有以下特性: A,B,我想预测: C,D,E,F,G
数据集看起来如下: A,B,C,D,E,F,G
我花了几天的时间学习多输出分类器的文档,在这里,但是这些文档在我看来似乎都不清楚。
有谁能指出正确的方向,找到一些样本代码,如何创建分类器和预测一些样本数据?
谢谢你,提前P.S:我不使用TensorFlow,并将感谢您的帮助,以滑雪。
发布于 2017-10-16 12:32:45
这被称为多任务学习,它基本上意味着学习多个函数的模型,但共享(部分或全部)权重。这是相当普遍的,例如,一个模型的图像识别和检测。您需要做的是定义几个损失函数(它们被称为heads)。
下面是tensorflow中一个非常简单的示例,它从Y1和Y2 (从本邮编)那里学习X:
# Define the Placeholders
X = tf.placeholder("float", [10, 10], name="X")
Y1 = tf.placeholder("float", [10, 1], name="Y1")
Y2 = tf.placeholder("float", [10, 1], name="Y2")
# Define the weights for the layers
shared_layer_weights = tf.Variable([10,20], name="share_W")
Y1_layer_weights = tf.Variable([20,1], name="share_Y1")
Y2_layer_weights = tf.Variable([20,1], name="share_Y2")
# Construct the Layers with RELU Activations
shared_layer = tf.nn.relu(tf.matmul(X,shared_layer_weights))
Y1_layer = tf.nn.relu(tf.matmul(shared_layer,Y1_layer_weights))
Y2_layer_weights = tf.nn.relu(tf.matmul(shared_layer,Y2_layer_weights))
# Calculate Loss
Y1_Loss = tf.nn.l2_loss(Y1,Y1_layer)
Y2_Loss = tf.nn.l2_loss(Y2,Y2_layer)如果您希望使用纯scikit编写代码,请参阅sklearn.multiclass包,它们支持多输出分类和多输出回归。下面是一个多输出回归的例子:
>>> from sklearn.datasets import make_regression
>>> from sklearn.multioutput import MultiOutputRegressor
>>> from sklearn.ensemble import GradientBoostingRegressor
>>> X, y = make_regression(n_samples=10, n_targets=3, random_state=1)
>>> MultiOutputRegressor(GradientBoostingRegressor(random_state=0)).fit(X, y).predict(X)
array([[-154.75474165, -147.03498585, -50.03812219],
[ 7.12165031, 5.12914884, -81.46081961],
[-187.8948621 , -100.44373091, 13.88978285],
[-141.62745778, 95.02891072, -191.48204257],
[ 97.03260883, 165.34867495, 139.52003279],
[ 123.92529176, 21.25719016, -7.84253 ],
[-122.25193977, -85.16443186, -107.12274212],
[ -30.170388 , -94.80956739, 12.16979946],
[ 140.72667194, 176.50941682, -17.50447799],
[ 149.37967282, -81.15699552, -5.72850319]])更新
这是一个完成多目标分类的完整代码。试着运行它:
import numpy as np
from sklearn.ensemble import RandomForestClassifier
from sklearn.multioutput import MultiOutputClassifier
# The data from your screenshot
# A B C D E F G
train_data = np.array([
[5, 133.5, 27, 284, 638, 31, 220],
[5, 111.9, 27, 285, 702, 36, 230],
[5, 99.3, 25, 310, 713, 39, 227],
[5, 102.5, 25, 311, 670, 34, 218],
[5, 114.8, 25, 312, 685, 34, 222],
])
# These I just made up
test_data_x = np.array([
[5, 100.0],
[5, 105.2],
[5, 102.7],
[5, 103.5],
[5, 120.3],
[5, 132.5],
[5, 152.5],
])
x = train_data[:, :2]
y = train_data[:, 2:]
forest = RandomForestClassifier(n_estimators=100, random_state=1)
classifier = MultiOutputClassifier(forest, n_jobs=-1)
classifier.fit(x, y)
print classifier.predict(test_data_x)产出(在我看来是合理的):
[[ 25. 310. 713. 39. 227.]
[ 25. 311. 670. 34. 218.]
[ 25. 311. 670. 34. 218.]
[ 25. 311. 670. 34. 218.]
[ 25. 312. 685. 34. 222.]
[ 27. 284. 638. 31. 220.]
[ 27. 284. 638. 31. 220.]]如果由于某些原因不能工作或不能在您的情况下应用,请更新问题。
https://stackoverflow.com/questions/46770088
复制相似问题