首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >SkFlow -使用分类器和回归器实现Dropout或L2正则化

SkFlow -使用分类器和回归器实现Dropout或L2正则化
EN

Stack Overflow用户
提问于 2016-08-28 11:06:02
回答 1查看 435关注 0票数 1

有什么简单的方法可以用SkFlow估计实现正则化方法吗?

有一个在示例中实现丢包的SkFlow,但是它没有实现估计器。

下面是我正在使用的代码:

代码语言:javascript
复制
regressor = skflow.TensorFlowDNNRegressor(
    hidden_units=[
      20,
      30,
      30,
      30,
      20
    ],
    steps=steps,
    learning_rate=0.3,
    batch_size=32)

regressor.fit(X_train, y_train)

如果还没有任何简单的方法来使用这些SkFlow估计来实现正则化,那么如果有人能向我展示、解释或指出一些可以给我与TensorFlowDNNRegressor基本相同的效果的东西,我会很感激,但是我可以向它添加正则化。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2016-08-28 19:17:07

该解决方案使用新的tf.contrib.learn api,它既允许退出,也允许优化器。

代码语言:javascript
复制
val_monitor = learn.monitors.ValidationMonitor(
  X_validate,
  y_validate,
  every_n_steps=100,
  early_stopping_metric="loss",
  early_stopping_metric_minimize=True,
  early_stopping_rounds=1000)

feature_columns = [contrib.layers.real_valued_column("", dimension=2)]

regressor = learn.DNNRegressor(
  feature_columns=feature_columns,
  hidden_units=[1024, 512, 256],
  model_dir="tmp/network_model",
  config=tf.contrib.learn.RunConfig(save_checkpoints_secs=10),
  optimizer=tf.train.ProximalAdagradOptimizer(
    learning_rate=0.1,
    #l2_regularization_strength=0.0001
  ),
  dropout=0.1)

regressor.fit(X_train, y_train, steps=500000, batch_size=32, monitors=[val_monitor])

我仍然不知道如何使它与衰减学习率一起工作。

有关验证监测api接口的更多信息。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/39190615

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档