首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏AILearning

    【Scikit-Learn 中文文档】内核岭回归 - 监督学习 - 用户指南 | ApacheCN

    它们的 learned functions (学习函数)非常相似;但是,拟合 KernelRidge 大约比拟合 SVR 快七倍(都使用 grid-search ( 网格搜索 ) )。

    1K60发布于 2018-01-15
  • 来自专栏大数据文摘

    Scikit-learn玩得很熟了?这些功能你都知道吗?

    更多信息: http://scikit-learn.org/stable/modules/pipeline.html 网格搜索(Grid-search) 超参数在参数估计中是不直接学习的,在scikit-learn

    61470发布于 2018-05-23
  • 来自专栏生信技能树

    使用sequenza软件判定肿瘤纯度

    normalization and segmentation test <- sequenza.extract(data.file, verbose = FALSE) #sequenza.fit: run grid-search

    6.1K40发布于 2018-07-27
  • 来自专栏腾讯技术工程官方号的专栏

    腾讯 QQ 看点图文多目标推荐实践经验

    所以采用了如下的乘法融合方式: 其中, 是 的幂,它的最佳值可以通过离线 grid-search 获得。 2.2.5 实验分析 参数调优 对于需要重新训练模型的参数调优(比如专家数),我们直接做了线上实验来对比;对于不需要重新训练模型的参数调优(比如融合策略里参数的 grid-search),我们做离线评估来对比 所以构造 的网格时,要从小于 1 的数开始,到大于 1 的数为止,再从中 grid-search 出最佳的 。 2.4.3 实验分析 在线实验 我们根据离线 grid-search 的结果确定最佳的α和β的值,在线对比上一版模型,互动指标得到大幅度提升,效果如下: 第四阶段三目标折线图 2.4.4 目标合并的训练策略 当我们想要优化的互动目标越来越多时,这种多一个互动目标就多一个 loss 的建模方式会使得在线预测的耗时明显增加,离线 grid-search 也需要更多的时间。

    2.7K31发布于 2021-04-12
  • 来自专栏计算机视觉战队

    引入鲁棒性,这种新的损失函数实现了自适应、随时变换(附论文下载链接)

    与网格搜索(grid-search)交叉验证寻找最优损失函数相比,这种损失函数花费的时间更少。让我们从下面的几个定义开始讲解: 鲁棒性与自适应损失函数的一般形式: ?

    2.1K10发布于 2021-03-15
  • 来自专栏计算机视觉战队

    引入鲁棒性作为连续参数,这种新的损失函数实现了自适应、随时变换(附论文下载链接)

    与网格搜索(grid-search)交叉验证寻找最优损失函数相比,这种损失函数花费的时间更少。让我们从下面的几个定义开始讲解: 鲁棒性与自适应损失函数的一般形式: ?

    1.1K30发布于 2020-11-10
  • 来自专栏机器学习与python集中营

    干货|深度学习中的正则化技术概述(附Python+keras实现代码)

    我们可以使用网格搜索方法(grid-search)对其进行优化。 同样,我们也可以使用L1正则化。在本文后面的案例研究中,我们将更详细地研究这一点。 2.

    2.2K20发布于 2019-10-14
  • 来自专栏磐创AI技术团队的专栏

    深度学习中的正则化技术概述(附Python+keras实现代码)

    我们可以使用网格搜索方法(grid-search)对其进行优化。 同样,我们也可以使用L1正则化。在本文后面的案例研究中,我们将更详细地研究这一点。 2.

    1.3K10发布于 2018-07-03
  • 来自专栏小七的各种胡思乱想

    无所不能的Embedding7 - 探索通用文本表达[FastSent/InferSent/GenSen/USE]

    不过个人感觉不用太过在意每个新架构在Benchmark上的表现提升,之前看到有调侃刷榜现象的评论说:新模型一定使用grid-search进行超参搜索直到它超越已有的SOTA方法,但绝不会对进行对比的其他方法也做调优

    1.1K20发布于 2021-03-03
  • 来自专栏机器之心

    引入鲁棒性作为连续参数,这种新的损失函数实现了自适应、随时变换

    与网格搜索(grid-search)交叉验证寻找最优损失函数相比,这种损失函数花费的时间更少。

    97710编辑于 2023-03-29
  • 来自专栏图灵技术域

    MATLAB中SVM(支持向量机)的用法

    用cross-validation和grid-search 得到最优的c和g 4.   用得到的最优c和g训练训练数据 5.   

    3.2K20发布于 2021-05-21
  • 来自专栏机器学习算法工程师

    深度学习中的正则化策略综述(附Python代码)

    值,是需要进一步优化的超参数,可以使用[网格搜索方法(grid-search)](http://scikit-learn.org/stable/modules/grid_search.html)来优化。

    1.1K31发布于 2018-07-27
  • 来自专栏Kevinello的技术小站

    ReBucket算法总结

    值的参数组总结总的来说ReBucket算法可以分为四个模块:堆栈预处理(白名单,递归函数等)PDM(二维动态规划)Clustering(类似并查集,只是Find函数需要改一下)参数训练(二分类模型,基于F值的Grid-Search

    2.3K41编辑于 2023-03-03
  • 来自专栏全栈程序员必看

    SVM参数详解[通俗易懂]

    用cross-validation和grid-search 得到最优的c和g 4. 用得到的最优c和g训练训练数据 5.

    3.6K20编辑于 2022-07-02
  • 来自专栏全栈程序员必看

    xgboost入门与实战(原理篇)

    This is unlike GBM where we have to run a grid-search and only a limited values can be tested. 8.continue

    1.6K20编辑于 2022-08-13
  • 来自专栏GiantPandaCV

    仅使用少量数据训练生成对抗网络

    同时,在实际情况下,对于数据增强概率p这个对数据集敏感、需要经过复杂的调参或是耗时的Grid-Search方法的参数定义过程,依靠固定的p并不是最优选择,因此本文进一步考虑提出自适应判别器数据增强策略。

    3.2K31发布于 2020-12-22
  • 来自专栏数据派THU

    深度学习中的正则化技术(附Python代码)

    可以使用grid-search的方法来优化它。 同样的,我们也可以采用L1正则化。后文中的案例研究会看到更多细节。 Dropout 这是一种非常有趣的正则化技术。

    1.9K51发布于 2018-07-30
  • 来自专栏AI小白入门

    【NLP】ACL2020表格预训练工作速览

    在微调阶段,在WIkiTQ、WikiSQL数据集上作者使用了黑盒贝叶斯优化器,SQA数据集上则使用网格搜索(grid-search)。

    6.7K10发布于 2020-08-27
  • 来自专栏大数据文摘

    机器学习算法一览

    我们可以在交叉验证集上做grid-search查找最好的正则化系数(对于大数据样本,我们依旧需要考虑时间问题,这个过程可能会比较慢): 在500个点得到的结果是:{‘C’: 0.01} 使用新的C参数

    811140发布于 2018-05-22
  • 来自专栏CDA数据分析师

    机器学习算法一览

    我们可以在交叉验证集上做grid-search查找最好的正则化系数(对于大数据样本,我们依旧需要考虑时间问题,这个过程可能会比较慢): ?

    1K90发布于 2018-02-05
领券