首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >"Dropout“、”Monte“和”英吉利的Dropout“有什么区别?

"Dropout“、”Monte“和”英吉利的Dropout“有什么区别?
EN

Stack Overflow用户
提问于 2019-04-29 15:06:44
回答 1查看 2.4K关注 0票数 4

我遇到了上述术语,我不确定它们之间的区别。

我的理解是MC辍学是正常的辍学,在测试期间也是活跃的,允许我们得到模型在多个测试运行中的不确定性估计。至于英吉利的辍学,我毫无头绪。

奖励:在Keras中实现MC辍学和通道性辍学的简单方法是什么?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2019-04-29 16:28:22

你是正确的,MC dropout也是在推理过程中应用的,而不是常规的辍学。如果你在谷歌上搜索,你可以很容易地找到关于两者的大量信息。

关于频道上的辍学,我的理解是,它不但没有掉下特定的神经元,反而降低了整个通道。

现在是Keras中的实现(我将使用tf.keras)。

MC Dropout

与往常一样,Keras定义了一个自定义层,无论它是训练还是测试,都会应用辍学,所以我们只需使用tf.nn.dropout(),且辍学率不变:

代码语言:javascript
复制
import tensorflow as tf

class MCDropout(tf.keras.layers.Layer):
    def __init__(self, rate):
        super(MCDropout, self).__init__()
        self.rate = rate

    def call(self, inputs):
        return tf.nn.dropout(inputs, rate=self.rate)

用法示例:

代码语言:javascript
复制
import tensorflow as tf
import numpy as np

model = tf.keras.models.Sequential()
model.add(tf.keras.layers.Conv2D(filters=6, kernel_size=3))
model.add(MCDropout(rate=0.5))
model.add(tf.keras.layers.Flatten())
model.add(tf.keras.layers.Dense(2))
model.compile(optimizer=tf.keras.optimizers.SGD(0.001),
              loss='binary_crossentropy',
              metrics=['accuracy'])

# generate dummy data for illustration
x_train = np.random.normal(size=(10, 4, 4, 3))
x_train = np.vstack([x_train, 2*np.random.normal(size=(10, 4, 4, 3))])
y_train = [[1, 0] for _ in range(10)] + [[0, 1] for _ in range(10)]
y_train = np.array(y_train)

model.fit(x_train,
          y_train,
          epochs=2,
          batch_size=10,
          validation_data=(x_train, y_train))

频道-Wise Dropout

在这里,您可以使用相同的tf.nn.dropout()函数,但是,您必须指定噪声形状。文档 of tf.nn.dropout()给出了如何实现丢弃信道的确切示例:

形状(X)= k,l,m,n和noise_shape = k,1,1,n,每个批次和通道组件将独立保持,每一行和每一列将保持或不保持在一起。

这就是我们在call()方法中要做的:

代码语言:javascript
复制
class ChannelWiseDropout(tf.keras.layers.Layer):
    def __init__(self, rate):
        super(ChannelWiseDropout, self).__init__()
        self.rate = rate

    def call(self, inputs):
        shape = tf.keras.backend.shape(inputs)
        noise_shape = (shape[0], 1, 1, shape[-1])
        return tf.nn.dropout(inputs,
                             rate=self.rate,
                             noise_shape=noise_shape)

将其应用于某些示例:

代码语言:javascript
复制
model = tf.keras.models.Sequential()
model.add(tf.keras.layers.InputLayer(input_shape=(4, 4, 3)))
model.add(tf.keras.layers.Conv2D(filters=3, kernel_size=3))
model.add(ChannelWiseDropout(rate=0.5))

x_train = np.random.normal(size=(1, 4, 4, 3))

with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    res = sess.run(model.output, feed_dict={model.inputs[0]:x_train})
    print(res[:, :, :, 0])
    print(res[:, :, :, 1])
    print(res[:, :, :, 2])
# [[[2.5495746  1.3060737 ]
#   [0.47009617 1.0427766 ]]]
# [[[-0.  0.]
#   [-0. -0.]]]                <-- second and third channels were dropped
# [[[-0. -0.]
#   [-0. -0.]]]

Note

我在用tf.__version__ == '1.13.1'。较早版本的tf使用keep_prob = 1 - rate而不是rate参数。

票数 6
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/55906129

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档