首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏AI机器学习与深度学习算法

    机器学习入门 4-5 参数

    本小节主要介绍参数相关的概念。 ? 参数 通过前面的小节,我们知道了kNN算法中k这个参数值,在sklearn中k这个值被封装成了k_neighbors参数。 kNN算法中的k就是kNN算法的参数。和参数相对应的概念就是模型参数,模型参数就是在模型训练过程中,机器学习算法根据训练样本学习到的参数。 如何寻找好的参数: ? ,通常这些默认数值都是一些比较好的经验数值,比如kNN在sklearn中,k值默认是5,此时的5就是经验上kNN算法比较好的数值; 实验搜索,通常来说,根据我们任务的不同,最好的参数和经验数值是不一样的 看看有没有可能得到更好的参数。 ? ? ? KNN其他的参数 kNN中不仅有k这一个参数,考不考虑距离也是kNN算法的参数。 ?

    74330发布于 2019-11-13
  • 来自专栏NLP小白的学习历程

    参数

    在机器学习的上下文中,参数是在开始学习过程之前设置值的参数,而不是通过训练得到的参数数据。通常情况下,需要对参数进行优化,给学习机选择一组最优参数,以提高学习的性能和效果。 均值聚类中的簇数 参数的优化问题 参数优化或模型选择是为学习算法选择一组最优参数时的问题,通常目的是优化算法在独立数据集上的性能的度量。 网格搜索 执行参数优化的传统方法是网格搜索或参数扫描,这仅仅是通过学习算法的参数空间的手动指定子集的详尽搜索。 该方法通过迭代地选择参数来观察(实验运行),以抛售(结果最不确定的参数)和利用(预期具有良好结果的参数)的方式。 这些技术的第一次使用集中在神经网络 [5] 从那时起,这些方法已经扩展到其他模型,如支持向量机 [6] 或逻辑回归 [7] 。 内容来自百度百科

    93110发布于 2020-11-13
  • 来自专栏计算机视觉理论及其实现

    选择参数

    有两种选择参数的基本方法,手动选择和自动选择。手动选择参数需要了解参数做了些什么,以及机器学习模型如何才能取得良好的范数。 自动选择参数算法大大减少了了解这些想法的需要,但它们往往需要更高的计算成本。1、手动调整参数手动设置参数,我们必须了解参数、训练误差、泛化误差和计算资源(内存和运行时间)之间的关系。 因此,原则上有可能开发出封装学习算法的参数优化算法,并选择其参数,从而使用者不需要指定学习算法的参数。令人遗憾的是,参数优化算法往往有自己的参数,如学习算法应该被探索的值的范围。 对于每个参数,使用者选择一个较小的有限值集去探索。然后,这些参数笛卡尔乘积得到一组组参数,网格搜索使用每组参数训练模型。挑选验证集误差最小的参数作为最好的参数5、基于模型的参数优化参数搜索问题可以转化为一个优化问题,决策变量是参数,优化的代价训练出来的模型在验证集上的误差。

    2.4K10编辑于 2022-09-03
  • 来自专栏wOw的Android小站

    参数之LearningRate

    图中有几点说明: := 是赋值操作 $J(\theta_{0},\theta_{1})$是代价函数 $\alpha$是learning rate,它控制我们以多大的幅度更新这个参数$\theta 底部链接里介绍有更多的策略,这里只放Tensorflow文档里常用的5个. exponential_decay LR指数衰减是最常用的衰减方法. exponential_decay(learning_rate decayed_learning_rate = learning_rate * decay_rate ^ (global_step / decay_steps) 如果参数 tf.train.inverse_time_decay(learning_rate, global_step, decay_steps, decay_rate, staircase=False, name=None) 倒数衰减.参数同上 于是就下调LR,5倍,10倍这样下调.从最开始的5e-5调整到1e-7时(同时增加了一倍的batch size),loss出现比较明显的下降,整体维持在0.8-0.9左右,偶尔会出现0.5,0.6这样的值

    2.5K11发布于 2018-09-18
  • 来自专栏全栈程序员必看

    什么是参数

    在看机器学习时,经常碰到一个叫参数参数(hyperparameter),所以到底什么是参数参数的定义:在机器学习的上下文中,参数是在开始学习过程之前设置值的参数,而不是通过训练得到的参数数据。通常情况下,需要对参数进行优化,给学习机选择一组最优参数,以提高学习的性能和效果。 理解:参数也是一个参数,是一个未知变量,但是它不同于在训练过程中的参数,它是可以对训练得到的参数有影响的参数,需要训练者人工输入,并作出调整,以便优化训练模型的效果。 参数: 1. 可以通过设置不同的值,训练不同的模型和选择更好的测试值来决定 参数的一些示例: 1. 聚类中类的个数 2. 话题模型中话题的数量 3. 模型的学习率 4.

    2K40编辑于 2022-09-20
  • 来自专栏从流域到海域

    神经网络的参数参数

    type=detail&id=2001702026 神经网络的参数参数 参数(parameter) W[1],b[1],W[2],b[2],W[3],b[3]...W^{[1]}, b^{[1] 参数 hyperparameter 中文 英文 学习速率 learning rate α\alphaα 迭代次数 #iterations 隐藏层层数 #hidden layers L 隐藏单元数 #hidden 说明 参数只是一种命名,之所以称之为参数,是因为这些参数(hyperparameter)在某种程度上决定了最终得到的W和b参数(parameter)。字并没有什么特别深刻的含义。 那么在训练网络时如何选择这些参数呢 ? 你可能不得不尝试一系列可能适用于你的应用的参数配置,不断尝试去取得最佳结果。 系统性的去尝试参数的方法,稍后补充。 这是深度学习还需要进步的地方。

    2.1K20发布于 2019-05-26
  • 来自专栏xiaosen

    GBDT算法参数评估

    然而,为了充分发挥其性能,参数的合理设置至关重要。参数,如学习率、树的最大深度、子样本比例等,直接影响到模型的复杂度、训练速度和预测精度。 因此,对GBDT算法的参数进行细致的评估和调整,是确保模型性能达到最优的关键步骤。 弱评估器数量:参数n_estimators n_estimators指的是集成算法中弱评估器的数量。 GridSearchCV:这是一个类,用于执行网格搜索和交叉验证,以找到模型的最佳参数组合。它不仅进行数据划分和模型评估,还搜索参数空间以找到最优配置。 在机器学习训练流程中,我们往往是通过给出一个极限资源来控制算法的停止,比如,我们通过参数设置允许某个算法迭代的最大次数,或者允许建立的弱评估器的个数。 对于复杂度较高、数据量较大的Boosting集成算法来说,无效的迭代常常发生,因此作为众多Boosting算法的根基算法,梯度提升树自带了提前停止的相关参数

    53210编辑于 2024-06-14
  • 来自专栏自然语言处理

    模型融合与参数优化

    3、对五个模型,分别进行步骤2,我们将获得5个模型,以及五个模型分别通过交叉验证获得的训练集预测结果。即P1、P2、P3、P4、P5。 4、用五个模型分别对测试集进行预测,得到测试集的预测结果:T1、T2、T3、T4、T55、将P15、T15作为下一层的训练集和测试集。在图中分别作为了模型6的训练集和测试集。 参数优化 推荐两个工具:Optuna和BayesianOptimization 推荐1:Optuna import numpy as np import optuna import lightgbm stratified=True, verbose_eval =200, metrics=['auc']) return max(cv_result['auc-mean']) # 第二步:设置参数搜索范围 random_state=0) # 第三步:设置优化目标 # lgbBO.maximize(init_points=init_round, n_iter=opt_round) # 第四步:获取最优参数

    1.1K10发布于 2021-11-24
  • 来自专栏DeepHub IMBA

    XGBoost参数调优指南

    本文将详细解释XGBoost中十个最常用参数的介绍,功能和值范围,及如何使用Optuna进行参数调优。 对于XGBoost来说,默认的参数是可以正常运行的,但是如果你想获得最佳的效果,那么就需要自行调整一些参数来匹配你的数据,以下参数对于XGBoost非常重要: eta num_boost_round 我们这里只关注原生API(也就是我们最常见的),但是这里提供一个列表,这样可以帮助你对比2个API参数,万一以后用到了呢: 如果想使用Optuna以外的参数调优工具,可以参考该表。 5、max_depth 最大深度max_depth控制决策树在训练过程中可能达到的最大层次数。 更深的树可以捕获特征之间更复杂的相互作用。 总结 以上就是我们对这 10个重要的参数的解释,如果你想更深入的了解仍有很多东西需要学习。

    1.8K30编辑于 2023-08-30
  • 来自专栏生物信息学、python、R、linux

    GridSearchCV (scikit learn) 确定参数

    在我们建立模型的时候需要(尽量)确定最优的参数,比如以下KNN的例子,如果直接实现,我们可以用for-loop来寻找最大的score,从而确定对应的参数: %%time # 寻找明科夫斯基距离最优的p {}; \nbest score is {};\nbest p is {}.".format(best_k, best_score, best_p)) 但是这样搜索比较麻烦,而且weights还有别的参数 scikit learn已经给我们封装好了GridSearchCV方法,我们直接调用即可: from sklearn.model_selection import GridSearchCV # 定义搜索参数 GridSearchCV(knn_clf, param_grid, n_jobs = -1, verbose = 2) grid_search.fit(X_train, y_train) # 查看参数

    1.4K50发布于 2020-10-10
  • 来自专栏DeepHub IMBA

    使用TensorBoard进行参数优化

    在本文中,我们将介绍参数优化,然后使用TensorBoard显示参数优化的结果。 深度神经网络的参数是什么? 这些参数像旋钮一样被调优,以提高神经网络的性能,从而产生一个优化的模型。参数的一个通俗的解释是:用来优化参数参数参数优化是寻找深度学习算法的优化器、学习率、等参数值,从而获得最佳模型性能的过程。 ? 可以使用以下技术执行参数优化。 随着参数数量的增加,随机搜索是一个更好的选择,因为它可以更快地得到参数的良好组合。 贝叶斯优化:整合关于参数的先验数据,包括模型的准确性或损失。先验信息有助于确定模型参数选择的更好近似。 dogs-vs-cats\\train_data\\' VAL_PATH='Data\\dogs-vs-cats\\validation_data\\'batch_size = 32 epochs = 5

    1.9K20发布于 2020-07-07
  • 来自专栏JNing的专栏

    深度学习: 网络参数设定

    Introduction 网络参数包括: 输入图像像素、卷积层参数、池化层参数。 输入图像像素 应事先将图像统一压缩至 2n2n2^{n} 大小。 卷积层参数 具体可查看TensorFlow中的API:tf.nn.conv2d tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu 小卷积核 大卷积核 优势 1.减少卷积参数总数;2.增强了网络容量和模型复杂度。 1.网络层数少;2.收敛快。 卷积填充 (padding) padding参数设置 含义 “SAME” 保证了 输入 与 输出 的size一致 “VALID” 零填充,尊重原生计算结果 卷积步长 (stride) 卷积时在 图像每一维 池化层参数 池化层的核一般也设置为 较小的size 。 常取的size值为 2×22×22\times2 ,3×33×33\times3 。

    1.1K20发布于 2018-09-27
  • 来自专栏数据科学(冷冻工厂)

    Python 模型参数调优

    导读 本文将对参数进行简要的解释,并推荐一本利用Python进行参数调整的书籍,其中包含了许多参数调整的方法,对于刚刚学习深度学习的小伙伴来说,是一个不错的选择。 2. 参数 在机器学习的上下文中,参数[1]是在开始学习过程之前设置的参数,而不是通过训练得到的参数数据。通常情况下,需要对参数进行优化,给学习机选择一组最优参数,以提高学习的性能和效果。 书 封面 参数是构建有用的机器学习模型的重要元素。本书为 Python 参数调整方法[2](机器学习最流行的编码语言之一)。 这本书涵盖了以下令人兴奋的功能: 发现参数空间和参数分布类型 探索手动、网格和随机搜索,以及每种搜索的优缺点 了解强大的失败者方法以及最佳实践 探索流行算法的参数 了解如何在不同的框架和库中调整参数 参考资料 [1] 参数: https://baike.baidu.com/item/%E8%B6%85%E5%8F%82%E6%95%B0/3101858 [2] 书: https://www.packtpub.com

    62530编辑于 2023-02-27
  • 来自专栏计算机视觉战队

    深度学习参数简单理解

    说到这些参数就会想到Stochastic Gradient Descent (SGD)!其实这些参数在caffe.proto中 对caffe网络中出现的各项参数做了详细的解释。 仅靠人为干预调整参数需要不断修改学习率,因此后面3种参数都是基于自适应的思路提出的解决方案。 后面3中参数分别为:Weight Decay 权值衰减,Momentum 动量和Learning Rate Decay 学习率衰减。 ? 上面这个公式基本思想就是减小不重要的参数对最后结果的影响,网络中有用的权重则不会收到Weight decay影响。

    78490发布于 2018-04-18
  • 来自专栏计算机视觉战队

    深度学习参数简单理解

    ---- 正文: 说到这些参数就会想到Stochastic Gradient Descent (SGD)! 其实这些参数在caffe.proto中 对caffe网络中出现的各项参数做了详细的解释。 Learning Rate 学习率决定了权值更新的速度,设置得太大会使结果超过最优值,太小会使下降速度过慢。 仅靠人为干预调整参数需要不断修改学习率,因此后面3种参数都是基于自适应的思路提出的解决方案。 后面3中参数分别为:Weight Decay 权值衰减,Momentum 动量和Learning Rate Decay 学习率衰减。 ? 上面这个公式基本思想就是减小不重要的参数对最后结果的影响,网络中有用的权重则不会收到Weight decay影响。

    1.6K40发布于 2018-04-17
  • 来自专栏相约机器人

    使用Python进行参数优化

    参数是每个机器学习和深度学习算法的组成部分。与算法本身学习的标准机器学习参数(例如线性回归中的w和b或神经网络中的连接权重)不同,工程师在训练过程之前会设置参数。 该学习速率是最著名的参数之一,C在SVM也是参数,决策树的最大深度是一个参数等,这些可以手动由工程师进行设置。但是如果要运行多个测试,可能会很麻烦。那就是使用参数优化的地方。 这些技术的主要目标是找到给定机器学习算法的参数,该参数可提供在验证集上测得的最佳性能。在本教程中,探索了可以提供最佳参数的几种技术。 它是损失函数的后验分布的函数,描述了参数的所有值的效用。最受欢迎的采集功能有望改善: 其中f是损失函数,x'是当前最佳参数集。 其中之一是参数值的基于梯度的优化。该技术计算有关参数的梯度,然后使用梯度下降算法对其进行优化。这种方法的问题在于,要使梯度下降正常工作,需要凸且平滑的函数,而在谈论参数时通常并非如此。

    2.2K11发布于 2020-11-13
  • 来自专栏DeepHub IMBA

    使用Optuna进行参数优化

    Optuna 的参数调整可视化 参数 常规参数是在训练期间通过机器学习算法学习的参数。而参数是设置如何训练模型的参数,它们有助于训练出更好的模型。 所以更改这个参数可以使模型变得更好或者更差,所以参数的调整是非常重要并且必要的。 参数优化 在参数优化方面有多种选择。最常用的方法是Grid Search和它的一些改进的方法。 Random Search通过以不均匀的间隔搜索参数空间,更有可能找到局部最优的参数。 loss_function", ["RMSE", "MAE"]), "learning_rate": trial.suggest_loguniform("learning_rate", 1e-5,

    3.5K21发布于 2021-11-08
  • 来自专栏AI机器学习与深度学习算法

    机器学习入门 12-5 CART与决策树中的参数

    使用非线性数据集是为了能够更好的看出决策树发生过拟合的样子,以及使用参数解决过拟合后的结果。 In[5]: def plot_decision_boundary(model, axis): x0, x1 = np.meshgrid( np.linspace ListedColormap(['#EF9A9A','#FFF59D','#90CAF9']) plt.contourf(x0, x1, zz, linewidth=5, 指定 max_leaf_nodes 参数为 4,最大叶子节点数为 4 In[10]: dt_clf5 = DecisionTreeClassifier(max_leaf_nodes=4) dt_clf5.fit(X, y) plot_decision_boundary(dt_clf5, axis=[-1.5, 2.5, -1.0, 1.5]) plt.scatter

    2.3K20发布于 2021-01-28
  • 来自专栏Datawhale专栏

    算法模型自动参数优化方法!

    什么是参数? 学习器模型中一般有两类参数,一类是可以从数据中学习估计得到,我们称为参数(Parameter)。 还有一类参数时无法从数据中估计,只能靠人的经验进行设计指定,我们称为参数(Hyper parameter)。参数是在开始学习过程之前设置值的参数。相反,其他参数的值通过训练得出。 比如,如果K=5,那么我们利用五折交叉验证的步骤就是: 将所有数据集分成5份 不重复地每次取其中一份做测试集,用其他四份做训练集训练模型,之后计算该模型在测试集上的MSE 将5次的MSE取平均作为最后而得到 一般K值选择5或10。 网格搜索 GridSearchCV 我们在选择参数有两个途径:1)凭经验;2)选择不同大小的参数,带入到模型中,挑选表现最好的参数。 如果让随机搜索运行,它会探索每个参数的不同的值 可以方便的通过设定搜索次数,控制参数搜索的计算量。添加参数节点不会影响性能,不会降低效率。

    3.7K20发布于 2021-01-07
  • 来自专栏程序员小王

    第 07 课:XGBoost 参数调整

    前文回顾: 在Python中开始使 scikit-learn 框架提供了搜索参数组合的功能。 此功能在 GridSearchCV 类中提供,可用于发现配置模型以获得最佳表现的最佳方法。 = [2, 4, 6, 8] 3param_grid = dict(max_depth=max_depth, n_estimators=n_estimators) 然后使用 10 倍交叉验证评估每个参数组合 要考虑调整的参数是: 树木的数量和大小( n_estimators 和 max_depth )。 学习率和树木数量( learning_rate 和 n_estimators )。 import loadtxt 3from xgboost import XGBClassifier 4from sklearn.model_selection import GridSearchCV 5from 您学习了如何配置梯度提升模型以及如何设计受控实验来调整 XGBoost 参数。 不要轻视这一点,你在很短的时间内走了很长的路。这只是您在 Python 中使用 XGBoost 的旅程的开始。

    2.3K40发布于 2019-07-01
领券