首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏ATYUN订阅号

    使用多种工具组合进行分布式超参数优化

    要求 你会需要: 安装了以下Python包 theano,tensorflow或tensorflow-gpu hyperopt hyperas pymongo PSSH 安装了以上所有的几台机器 一个带有 pip install tensorflow git+https://github.com/hyperopt/hyperopt git+https://github.com/maxpumperla/hyperas Hyperas使用模板生成hyperopt可以使用的代码,因此你需要严格遵循这个模板。创建一个名为optimise_task.py的文件。 在我们的示例中,它将返回范围[12,256]中的浮点数,step=4 uniform是连续值的正态分布 Hyperas.distributions中提供了更多可用的分布:https://github.com /maxpumperla/hyperas/blob/master/hyperas/distributions.py from hyperasimport optim from hyperas.distributionsimport

    1.5K40发布于 2018-09-26
  • 来自专栏机器学习人工学weekly

    机器学习人工学weekly-2018/8/19

    understanding-hyperparameters-optimization-in-deep-learning-models-concepts-and-tools-357002a3338a 10. hyperas neural network architectures- Part I: Hyper-parameter selection and tuning for Dense Networks using Hyperas

    66820发布于 2018-10-08
  • 来自专栏数据派THU

    独家 | 简单三步实现Python脚本超参数调优(附代码)

    相关文献: 超参数优化实战 如何自动实现超参数优化 用Google Colab的Hyperas实现 Keras超参数调优 原文标题: How to Do Hyperparameter Tuning on

    1.5K20发布于 2020-05-09
  • 来自专栏AI科技大本营的专栏

    资源 | 做一款炫酷的机器人需要哪些学习资源(机器人资源Awesome系列)

    tensorlayer TensorFlow-Examples – 为初学者提供的TensorFlow手册与实例 https://github.com/aymericdamien/TensorFlow-Examples hyperas - Keras + Hyperopt:方便超参数优化,封装简单 https://github.com/maxpumperla/hyperas elephas – 使用Keras & Spark进行分布式深度学习

    1.7K111发布于 2018-04-27
  • 来自专栏机器之心

    不要只关注算法与模型,这里有份产品级深度学习开发指南

    Hyperas:Keras 的超参数算子的简单封装,能够提供一个超参范围供开发者调整; SIGOPT :可扩展的企业级优化平台; Ray-Tune:可扩展的研究平台,能够进行分布式模型选择(主要关注深度学习和深度强化学习

    1.7K10发布于 2019-12-06
  • 来自专栏量子位

    自动机器学习工具全景图:精选22种框架,解放炼丹师

    这个库是用hyperopt-sklearn和hyperas实现的,这两个用于模型选择和优化的函数库分别建立在scikit-learn和keras的基础上。 3.

    1.4K40发布于 2018-09-29
  • 来自专栏CV学习史

    Deep learning with Python 学习笔记(9)

    另一个叫作 Hyperas 的库将 Hyperopt 与 Keras 模型集成在一起 模型集成 集成是指将一系列不同模型的预测结果汇集到一起,从而得到更好的预测结果。

    92610发布于 2019-09-10
  • 来自专栏机器学习AI算法工程

    [自动调参]深度学习模型的超参数自动化调优详解

    另一个叫作 Hyperas 的库将 Hyperopt 与 Keras 模型集成在一起。 本文将介绍一种快速有效的方法用于实现机器学习模型的调参。有两种常用的调参方法:网格搜索和随机搜索。

    5.3K10发布于 2019-10-28
  • 来自专栏机器之心

    超参数搜索不够高效?这几大策略了解一下

    你可以使用工作区在完全配置的云服务器上运行以下代码(使用 Hyperas 进行贝叶斯优化(SMBO-TPE))。 搜索策略对比 现在让我们来总结一下到目前为止所涵盖的策略,以了解每个策略的优缺点。

    1.1K40发布于 2018-10-22
  • 来自专栏机器学习算法与Python学习

    超参数优化,这些策略了解一下!

    你可以使用工作区在完全配置的云服务器上运行以下代码(使用 Hyperas 进行贝叶斯优化(SMBO-TPE))。

    2.3K41发布于 2018-10-23
  • 来自专栏SeanCheney的专栏

    《机器学习实战:基于Scikit-Learn、Keras和TensorFlow》第10章 使用Keras搭建人工神经网络

    Hyperas,kopt 或 Talos 用来优化Keras模型超参数的库(前两个是基于Hyperopt的)。

    4.1K30发布于 2019-10-16
  • 来自专栏信数据得永生

    生成对抗网络项目:1~5

    我们还可以通过使用 Hyperopt 或 Hyperas 选择最佳的超参数集。

    1.9K20编辑于 2023-04-24
领券