首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏AI机器学习与深度学习算法

    机器学习入门 4-5 参数

    本小节主要介绍参数相关的概念。 ? 参数 通过前面的小节,我们知道了kNN算法中k这个参数值,在sklearn中k这个值被封装成了k_neighbors参数。 在前面我们随机的指定参数k的值,究竟k的值为多少的时候,模型才是最好的呢?这就涉及到了机器学习领域非常重要的问题~参数问题。 我们将这些在运行机器学习算法之前需要指定的参数,称之为参数。 kNN算法中的k就是kNN算法的参数。和参数相对应的概念就是模型参数,模型参数就是在模型训练过程中,机器学习算法根据训练样本学习到的参数。 如何寻找好的参数: ? 看看有没有可能得到更好的参数。 ? ? ? KNN其他的参数 kNN中不仅有k这一个参数,考不考虑距离也是kNN算法的参数。 ?

    74330发布于 2019-11-13
  • 来自专栏机器学习与生成对抗网络

    4种主流参数调优技术

    机器学习模型的性能与参数直接相关。参数调优越多,得到的模型就越好。调整参数真的很难又乏味,更是一门艺术而不是科学。 参数(Hyper-parameter) 参数是在建立模型时用来控制算法行为的参数。这些参数不能从正常的训练过程中学习。他们需要在训练模型之前被分配。 ? Dr.Mukesh Rao的参数样本清单 目录 1. 传统或手动调参 2. 网格搜索 3. 随机搜索 4. 贝叶斯搜索 1. 考虑上面的例子,它有两个参数 k_value =[2,3,4,5,6,7,8,9,10] 和 algorithm = [‘auto’ , ’ball_tree’ , ’kd_tree’ , ’brute 如果你的参数空间(参数个数)非常大,那么使用随机搜索找到参数的潜在组合,然后使用该局部的网格搜索(参数的潜在组合)来选择最优特征。

    1.5K30发布于 2020-10-27
  • 来自专栏PyVision

    4种主流参数调优技术

    引言 维基百科上说“参数优化(optimization)或调优(tuning)是为学习算法选择一组最优参数的问题” 机器学习工作流中最难的部分之一是为模型寻找最佳的参数。 机器学习模型的性能与参数直接相关。参数调优越多,得到的模型就越好。调整参数真的很难又乏味,更是一门艺术而不是科学。 Dr.Mukesh Rao的参数样本清单 目录 1. 传统或手动调参 2. 网格搜索 3. 随机搜索 4. 贝叶斯搜索 1. 考虑上面的例子,它有两个参数 k_value =[2,3,4,5,6,7,8,9,10] 和 algorithm = [‘auto’ , ’ball_tree’ , ’kd_tree’ , ’brute 如果你的参数空间(参数个数)非常大,那么使用随机搜索找到参数的潜在组合,然后使用该局部的网格搜索(参数的潜在组合)来选择最优特征。

    1.9K20发布于 2020-09-21
  • 来自专栏Datawhale专栏

    机器学习4个常用参数调试方法!

    ML工作流中最困难的部分之一是为模型找到最好的参数。ML模型的性能与参数直接相关。参数调优的越好,得到的模型就越好。调优参数可能是非常乏味和困难的,更像是一门艺术而不是科学。 参数 参数是在建立模型时用于控制算法行为的参数。这些参数不能从常规训练过程中获得。在对模型进行训练之前,需要对它们进行赋值。 ? 考虑上面的例子,其中两个参数k_value =[2,3,4,5,6,7,8,9,10] & algorithm =[' auto ', ' ball_tree ', ' kd_tree ', ' brute 随机搜索 使用随机搜索代替网格搜索的动机是,在许多情况下,所有的参数可能不是同等重要的。随机搜索从参数空间中随机选择参数组合,参数由n_iter给定的固定迭代次数的情况下选择。 总结 在确定参数的最佳组合的保证和计算时间之间总是存在权衡。如果参数空间(参数个数)非常大,则使用随机搜索找到参数的潜在组合,然后在该局部使用网格搜索(参数的潜在组合)选择最优特征。

    2K10发布于 2020-09-22
  • 来自专栏NLP小白的学习历程

    参数

    在机器学习的上下文中,参数是在开始学习过程之前设置值的参数,而不是通过训练得到的参数数据。通常情况下,需要对参数进行优化,给学习机选择一组最优参数,以提高学习的性能和效果。 均值聚类中的簇数 参数的优化问题 参数优化或模型选择是为学习算法选择一组最优参数时的问题,通常目的是优化算法在独立数据集上的性能的度量。 该方法通过迭代地选择参数来观察(实验运行),以抛售(结果最不确定的参数)和利用(预期具有良好结果的参数)的方式。 实际上,贝叶斯优化已经被证明 [3-4] ,因为在实验的质量运行之前,能够对网格搜索和随机搜索进行更少的实验获得更好的结果。 因此,随机分散的数据给出了比最终不影响损失的参数的详尽搜索更多的“纹理”数据。 [4] 基于梯度的优化 对于特定的学习算法,可以计算相对于参数的梯度,然后使用梯度下降优化参数

    93110发布于 2020-11-13
  • 来自专栏计算机视觉理论及其实现

    选择参数

    有两种选择参数的基本方法,手动选择和自动选择。手动选择参数需要了解参数做了些什么,以及机器学习模型如何才能取得良好的范数。 自动选择参数算法大大减少了了解这些想法的需要,但它们往往需要更高的计算成本。1、手动调整参数手动设置参数,我们必须了解参数、训练误差、泛化误差和计算资源(内存和运行时间)之间的关系。 因此,原则上有可能开发出封装学习算法的参数优化算法,并选择其参数,从而使用者不需要指定学习算法的参数。令人遗憾的是,参数优化算法往往有自己的参数,如学习算法应该被探索的值的范围。 对于每个参数,使用者选择一个较小的有限值集去探索。然后,这些参数笛卡尔乘积得到一组组参数,网格搜索使用每组参数训练模型。挑选验证集误差最小的参数作为最好的参数4、随机搜索幸运的是,有一个替代网格搜索的方法,并且编程简单,使用方便,能更快地收敛到参数的良好取值------随机搜索。随机搜索过程如下。

    2.4K10编辑于 2022-09-03
  • 来自专栏SimpleAI

    【DL碎片4】深度学习中的的参数调节

    ---- 我们平时一直都在说“调参、调参”,但实际上,不是调“参数”,而是调“参数”。 一、参数(Parameter)和参数(HyperParameter)是指什么呢? 当然,如果我们可以借鉴一些知名的项目的参数的选择,来应用到我们类似的项目中去。 ---- 二、用什么方法来选择“(参数组合”呢? 比如我们需要对两个参数进行调节,可能会想到用 “网格法”: ? 这种方法有个很大的缺陷,主要是由 “不同的参数的重要性/作用效果有区别”导致的。 ---- 三、用合适的尺度(scale)来选择参数 上面我们解决了如何选择组合的方法问题,但是具体 对于每一个参数,应该在怎样的一个尺度上进行划分呢? 具体来说,我们先初始化一组参数,然后每训练一段时间,比如一天,就赶紧去看看进展如何,是否按照我们预想的方向发展,然后做一定的微调,接着训练,保持观察;如果发现偏离了方向,赶紧对参数进行调整。

    1.5K40发布于 2018-10-25
  • 来自专栏算法channel

    模型调参和参数优化的4个工具

    模型参数——参数是您可以从模型本身手动调整的那些值,例如学习率、估计器数量、正则化类型等。 优化– 调整参数以通过使用其中一种优化技术来最小化成本函数的过程。 参数优化——参数优化只是搜索以获得最佳参数集,从而在特定数据集上提供模型的最佳版本。 贝叶斯优化——基于序列模型的优化 (SMBO) 算法的一部分,用于使用前一个实验的结果来改进下一个实验。 Hyperopt使用贝叶斯优化算法进行参数调整,为给定模型选择最佳参数。它可以优化具有数百个参数的大规模模型。 Hyperopt 的特点: HyperOpt 需要 4 个基本组件来优化参数: 搜索空间, 损失函数, 优化算法, 用于存储历史记录(分数、配置)的数据库 在项目中使用 Hyperopt 的步骤: 初始化要搜索的空间 4. Scikit-优化 Scikit-Optimize是 Python 中用于参数优化的开源库。它是由 Scikit-learn 背后的团队开发的。与其他参数优化库相比,它相对容易使用。

    2.9K30编辑于 2022-08-31
  • 来自专栏wOw的Android小站

    参数之LearningRate

    图中有几点说明: := 是赋值操作 $J(\theta_{0},\theta_{1})$是代价函数 $\alpha$是learning rate,它控制我们以多大的幅度更新这个参数$\theta decayed_learning_rate = learning_rate * decay_rate ^ (global_step / decay_steps) 如果参数 tf.train.inverse_time_decay(learning_rate, global_step, decay_steps, decay_rate, staircase=False, name=None) 倒数衰减.参数同上

    2.5K11发布于 2018-09-18
  • 来自专栏全栈程序员必看

    什么是参数

    在看机器学习时,经常碰到一个叫参数参数(hyperparameter),所以到底什么是参数参数的定义:在机器学习的上下文中,参数是在开始学习过程之前设置值的参数,而不是通过训练得到的参数数据。通常情况下,需要对参数进行优化,给学习机选择一组最优参数,以提高学习的性能和效果。 理解:参数也是一个参数,是一个未知变量,但是它不同于在训练过程中的参数,它是可以对训练得到的参数有影响的参数,需要训练者人工输入,并作出调整,以便优化训练模型的效果。 参数: 1. 可以通过设置不同的值,训练不同的模型和选择更好的测试值来决定 参数的一些示例: 1. 聚类中类的个数 2. 话题模型中话题的数量 3. 模型的学习率 4.

    2K40编辑于 2022-09-20
  • 来自专栏从流域到海域

    神经网络的参数参数

    type=detail&id=2001702026 神经网络的参数参数 参数(parameter) W[1],b[1],W[2],b[2],W[3],b[3]...W^{[1]}, b^{[1] 参数 hyperparameter 中文 英文 学习速率 learning rate α\alphaα 迭代次数 #iterations 隐藏层层数 #hidden layers L 隐藏单元数 #hidden 说明 参数只是一种命名,之所以称之为参数,是因为这些参数(hyperparameter)在某种程度上决定了最终得到的W和b参数(parameter)。字并没有什么特别深刻的含义。 那么在训练网络时如何选择这些参数呢 ? 你可能不得不尝试一系列可能适用于你的应用的参数配置,不断尝试去取得最佳结果。 系统性的去尝试参数的方法,稍后补充。 这是深度学习还需要进步的地方。

    2.1K20发布于 2019-05-26
  • 来自专栏xiaosen

    GBDT算法参数评估

    然而,为了充分发挥其性能,参数的合理设置至关重要。参数,如学习率、树的最大深度、子样本比例等,直接影响到模型的复杂度、训练速度和预测精度。 因此,对GBDT算法的参数进行细致的评估和调整,是确保模型性能达到最优的关键步骤。 弱评估器数量:参数n_estimators n_estimators指的是集成算法中弱评估器的数量。 GridSearchCV:这是一个类,用于执行网格搜索和交叉验证,以找到模型的最佳参数组合。它不仅进行数据划分和模型评估,还搜索参数空间以找到最优配置。 在机器学习训练流程中,我们往往是通过给出一个极限资源来控制算法的停止,比如,我们通过参数设置允许某个算法迭代的最大次数,或者允许建立的弱评估器的个数。 对于复杂度较高、数据量较大的Boosting集成算法来说,无效的迭代常常发生,因此作为众多Boosting算法的根基算法,梯度提升树自带了提前停止的相关参数

    53210编辑于 2024-06-14
  • 来自专栏自然语言处理

    模型融合与参数优化

    即P1、P2、P3、P4、P5。 4、用五个模型分别对测试集进行预测,得到测试集的预测结果:T1、T2、T3、T4、T5。 5、将P15、T15作为下一层的训练集和测试集。 参数优化 推荐两个工具:Optuna和BayesianOptimization 推荐1:Optuna import numpy as np import optuna import lightgbm application_train) X = application_train.drop('TARGET', axis=1) y = application_train.TARGET # 第一步:设置需要优化的参数 stratified=True, verbose_eval =200, metrics=['auc']) return max(cv_result['auc-mean']) # 第二步:设置参数搜索范围 random_state=0) # 第三步:设置优化目标 # lgbBO.maximize(init_points=init_round, n_iter=opt_round) # 第四步:获取最优参数

    1.1K10发布于 2021-11-24
  • 来自专栏DeepHub IMBA

    XGBoost参数调优指南

    本文将详细解释XGBoost中十个最常用参数的介绍,功能和值范围,及如何使用Optuna进行参数调优。 对于XGBoost来说,默认的参数是可以正常运行的,但是如果你想获得最佳的效果,那么就需要自行调整一些参数来匹配你的数据,以下参数对于XGBoost非常重要: eta num_boost_round 我们这里只关注原生API(也就是我们最常见的),但是这里提供一个列表,这样可以帮助你对比2个API参数,万一以后用到了呢: 如果想使用Optuna以外的参数调优工具,可以参考该表。 4、subsample和colsample_bytree 子抽样subsample它将更多的随机性引入到训练中,从而有助于对抗过拟合。 总结 以上就是我们对这 10个重要的参数的解释,如果你想更深入的了解仍有很多东西需要学习。

    1.8K30编辑于 2023-08-30
  • 来自专栏生物信息学、python、R、linux

    GridSearchCV (scikit learn) 确定参数

    在我们建立模型的时候需要(尽量)确定最优的参数,比如以下KNN的例子,如果直接实现,我们可以用for-loop来寻找最大的score,从而确定对应的参数: %%time # 寻找明科夫斯基距离最优的p {}; \nbest score is {};\nbest p is {}.".format(best_k, best_score, best_p)) 但是这样搜索比较麻烦,而且weights还有别的参数 scikit learn已经给我们封装好了GridSearchCV方法,我们直接调用即可: from sklearn.model_selection import GridSearchCV # 定义搜索参数 GridSearchCV(knn_clf, param_grid, n_jobs = -1, verbose = 2) grid_search.fit(X_train, y_train) # 查看参数

    1.4K50发布于 2020-10-10
  • 来自专栏DeepHub IMBA

    使用TensorBoard进行参数优化

    在本文中,我们将介绍参数优化,然后使用TensorBoard显示参数优化的结果。 深度神经网络的参数是什么? 要做到这一点,可以使用为模型提供最佳准度和精度的值来设计神经网络参数。 那么,这些被称为参数参数是什么呢? 用于训练神经网络模型的不同参数称为参数。 这些参数像旋钮一样被调优,以提高神经网络的性能,从而产生一个优化的模型。参数的一个通俗的解释是:用来优化参数参数参数优化是寻找深度学习算法的优化器、学习率、等参数值,从而获得最佳模型性能的过程。 ? 可以使用以下技术执行参数优化。 随着参数数量的增加,随机搜索是一个更好的选择,因为它可以更快地得到参数的良好组合。 贝叶斯优化:整合关于参数的先验数据,包括模型的准确性或损失。先验信息有助于确定模型参数选择的更好近似。

    1.9K20发布于 2020-07-07
  • 来自专栏JNing的专栏

    深度学习: 网络参数设定

    Introduction 网络参数包括: 输入图像像素、卷积层参数、池化层参数。 输入图像像素 应事先将图像统一压缩至 2n2n2^{n} 大小。 卷积层参数 具体可查看TensorFlow中的API:tf.nn.conv2d tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu 小卷积核 大卷积核 优势 1.减少卷积参数总数;2.增强了网络容量和模型复杂度。 1.网络层数少;2.收敛快。 ([batch, in_height, in_width, in_channels])的步长,这是一个一维的向量,长度4。 池化层参数 池化层的核一般也设置为 较小的size 。 常取的size值为 2×22×22\times2 ,3×33×33\times3 。

    1.1K20发布于 2018-09-27
  • 来自专栏数据科学(冷冻工厂)

    Python 模型参数调优

    导读 本文将对参数进行简要的解释,并推荐一本利用Python进行参数调整的书籍,其中包含了许多参数调整的方法,对于刚刚学习深度学习的小伙伴来说,是一个不错的选择。 2. 参数 在机器学习的上下文中,参数[1]是在开始学习过程之前设置的参数,而不是通过训练得到的参数数据。通常情况下,需要对参数进行优化,给学习机选择一组最优参数,以提高学习的性能和效果。 参数的一些示例: 树的数量或树的深度 矩阵分解中潜在因素的数量 学习率(多种模式) 深层神经网络隐藏层数 k均值聚类中的簇数 参数的调整,对于提升模型的相关性能有一定的作用。 3. 书 封面 参数是构建有用的机器学习模型的重要元素。本书为 Python 参数调整方法[2](机器学习最流行的编码语言之一)。 这本书涵盖了以下令人兴奋的功能: 发现参数空间和参数分布类型 探索手动、网格和随机搜索,以及每种搜索的优缺点 了解强大的失败者方法以及最佳实践 探索流行算法的参数 了解如何在不同的框架和库中调整参数

    62530编辑于 2023-02-27
  • 来自专栏计算机视觉战队

    深度学习参数简单理解

    说到这些参数就会想到Stochastic Gradient Descent (SGD)!其实这些参数在caffe.proto中 对caffe网络中出现的各项参数做了详细的解释。 仅靠人为干预调整参数需要不断修改学习率,因此后面3种参数都是基于自适应的思路提出的解决方案。 后面3中参数分别为:Weight Decay 权值衰减,Momentum 动量和Learning Rate Decay 学习率衰减。 ? 上面这个公式基本思想就是减小不重要的参数对最后结果的影响,网络中有用的权重则不会收到Weight decay影响。

    78490发布于 2018-04-18
  • 来自专栏计算机视觉战队

    深度学习参数简单理解

    ---- 正文: 说到这些参数就会想到Stochastic Gradient Descent (SGD)! 其实这些参数在caffe.proto中 对caffe网络中出现的各项参数做了详细的解释。 Learning Rate 学习率决定了权值更新的速度,设置得太大会使结果超过最优值,太小会使下降速度过慢。 仅靠人为干预调整参数需要不断修改学习率,因此后面3种参数都是基于自适应的思路提出的解决方案。 后面3中参数分别为:Weight Decay 权值衰减,Momentum 动量和Learning Rate Decay 学习率衰减。 ? 上面这个公式基本思想就是减小不重要的参数对最后结果的影响,网络中有用的权重则不会收到Weight decay影响。

    1.6K40发布于 2018-04-17
领券