首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏NLP小白的学习历程

    参数

    在机器学习的上下文中,参数是在开始学习过程之前设置值的参数,而不是通过训练得到的参数数据。通常情况下,需要对参数进行优化,给学习机选择一组最优参数,以提高学习的性能和效果。 在机器学习的上下文中,参数是在开始学习过程之前设置值的参数。 相反,其他参数的值通过训练得出。 参数: 定义关于模型的更高层次的概念,如复杂性或学习能力。 均值聚类中的簇数 参数的优化问题 参数优化或模型选择是为学习算法选择一组最优参数时的问题,通常目的是优化算法在独立数据集上的性能的度量。 网格搜索 执行参数优化的传统方法是网格搜索或参数扫描,这仅仅是通过学习算法的参数空间的手动指定子集的详尽搜索。 该方法通过迭代地选择参数来观察(实验运行),以抛售(结果最不确定的参数)和利用(预期具有良好结果的参数)的方式。

    93110发布于 2020-11-13
  • 来自专栏计算机视觉理论及其实现

    选择参数

    有两种选择参数的基本方法,手动选择和自动选择。手动选择参数需要了解参数做了些什么,以及机器学习模型如何才能取得良好的范数。 自动选择参数算法大大减少了了解这些想法的需要,但它们往往需要更高的计算成本。1、手动调整参数手动设置参数,我们必须了解参数、训练误差、泛化误差和计算资源(内存和运行时间)之间的关系。 对于某些参数,当参数数值太大时,会发生过拟合。例如中间层隐藏单元的数量,增加数量能提高模型的容量,容易发生过拟合。对于某些参数,当参数数值太小时,也会发生过拟合。 因此,原则上有可能开发出封装学习算法的参数优化算法,并选择其参数,从而使用者不需要指定学习算法的参数。令人遗憾的是,参数优化算法往往有自己的参数,如学习算法应该被探索的值的范围。 对于每个参数,使用者选择一个较小的有限值集去探索。然后,这些参数笛卡尔乘积得到一组组参数,网格搜索使用每组参数训练模型。挑选验证集误差最小的参数作为最好的参数

    2.4K10编辑于 2022-09-03
  • 来自专栏wOw的Android小站

    参数之LearningRate

    图中有几点说明: := 是赋值操作 $J(\theta_{0},\theta_{1})$是代价函数 $\alpha$是learning rate,它控制我们以多大的幅度更新这个参数$\theta decayed_learning_rate = learning_rate * decay_rate ^ (global_step / decay_steps) 如果参数 tf.train.inverse_time_decay(learning_rate, global_step, decay_steps, decay_rate, staircase=False, name=None) 倒数衰减.参数同上 I usually start with default learning rate 1e-5, and batch size 16 or even 8 to speed up the loss first

    2.5K11发布于 2018-09-18
  • 来自专栏全栈程序员必看

    什么是参数

    在看机器学习时,经常碰到一个叫参数参数(hyperparameter),所以到底什么是参数参数的定义:在机器学习的上下文中,参数是在开始学习过程之前设置值的参数,而不是通过训练得到的参数数据。通常情况下,需要对参数进行优化,给学习机选择一组最优参数,以提高学习的性能和效果。 理解:参数也是一个参数,是一个未知变量,但是它不同于在训练过程中的参数,它是可以对训练得到的参数有影响的参数,需要训练者人工输入,并作出调整,以便优化训练模型的效果。 参数: 1. 可以通过设置不同的值,训练不同的模型和选择更好的测试值来决定 参数的一些示例: 1. 聚类中类的个数 2. 话题模型中话题的数量 3. 模型的学习率 4.

    2K40编辑于 2022-09-20
  • 来自专栏从流域到海域

    神经网络的参数参数

    type=detail&id=2001702026 神经网络的参数参数 参数(parameter) W[1],b[1],W[2],b[2],W[3],b[3]...W^{[1]}, b^{[1] 参数 hyperparameter 中文 英文 学习速率 learning rate α\alphaα 迭代次数 #iterations 隐藏层层数 #hidden layers L 隐藏单元数 #hidden 说明 参数只是一种命名,之所以称之为参数,是因为这些参数(hyperparameter)在某种程度上决定了最终得到的W和b参数(parameter)。字并没有什么特别深刻的含义。 那么在训练网络时如何选择这些参数呢 ? 你可能不得不尝试一系列可能适用于你的应用的参数配置,不断尝试去取得最佳结果。 系统性的去尝试参数的方法,稍后补充。 这是深度学习还需要进步的地方。

    2.1K20发布于 2019-05-26
  • 来自专栏xiaosen

    GBDT算法参数评估

    然而,为了充分发挥其性能,参数的合理设置至关重要。参数,如学习率、树的最大深度、子样本比例等,直接影响到模型的复杂度、训练速度和预测精度。 因此,对GBDT算法的参数进行细致的评估和调整,是确保模型性能达到最优的关键步骤。 弱评估器数量:参数n_estimators n_estimators指的是集成算法中弱评估器的数量。 GridSearchCV:这是一个类,用于执行网格搜索和交叉验证,以找到模型的最佳参数组合。它不仅进行数据划分和模型评估,还搜索参数空间以找到最优配置。 在机器学习训练流程中,我们往往是通过给出一个极限资源来控制算法的停止,比如,我们通过参数设置允许某个算法迭代的最大次数,或者允许建立的弱评估器的个数。 对于复杂度较高、数据量较大的Boosting集成算法来说,无效的迭代常常发生,因此作为众多Boosting算法的根基算法,梯度提升树自带了提前停止的相关参数

    53210编辑于 2024-06-14
  • 来自专栏自然语言处理

    模型融合与参数优化

    参数优化 推荐两个工具:Optuna和BayesianOptimization 推荐1:Optuna import numpy as np import optuna import lightgbm verbosity": -1, "boosting_type": "gbdt", "lambda_l1": trial.suggest_float("lambda_l1", 1e-8, 10.0, log=True), "lambda_l2": trial.suggest_float("lambda_l2", 1e-8, 10.0, log=True), stratified=True, verbose_eval =200, metrics=['auc']) return max(cv_result['auc-mean']) # 第二步:设置参数搜索范围 random_state=0) # 第三步:设置优化目标 # lgbBO.maximize(init_points=init_round, n_iter=opt_round) # 第四步:获取最优参数

    1.1K10发布于 2021-11-24
  • 来自专栏DeepHub IMBA

    XGBoost参数调优指南

    本文将详细解释XGBoost中十个最常用参数的介绍,功能和值范围,及如何使用Optuna进行参数调优。 对于XGBoost来说,默认的参数是可以正常运行的,但是如果你想获得最佳的效果,那么就需要自行调整一些参数来匹配你的数据,以下参数对于XGBoost非常重要: eta num_boost_round 我们这里只关注原生API(也就是我们最常见的),但是这里提供一个列表,这样可以帮助你对比2个API参数,万一以后用到了呢: 如果想使用Optuna以外的参数调优工具,可以参考该表。 8、gamma 如果你读过XGBoost文档,它说gamma是: 在树的叶节点上进行进一步分区所需的最小损失减少。 总结 以上就是我们对这 10个重要的参数的解释,如果你想更深入的了解仍有很多东西需要学习。

    1.8K30编辑于 2023-08-30
  • 来自专栏生物信息学、python、R、linux

    GridSearchCV (scikit learn) 确定参数

    在我们建立模型的时候需要(尽量)确定最优的参数,比如以下KNN的例子,如果直接实现,我们可以用for-loop来寻找最大的score,从而确定对应的参数: %%time # 寻找明科夫斯基距离最优的p {}; \nbest score is {};\nbest p is {}.".format(best_k, best_score, best_p)) 但是这样搜索比较麻烦,而且weights还有别的参数 scikit learn已经给我们封装好了GridSearchCV方法,我们直接调用即可: from sklearn.model_selection import GridSearchCV # 定义搜索参数 GridSearchCV(knn_clf, param_grid, n_jobs = -1, verbose = 2) grid_search.fit(X_train, y_train) # 查看参数

    1.4K50发布于 2020-10-10
  • 来自专栏DeepHub IMBA

    使用TensorBoard进行参数优化

    在本文中,我们将介绍参数优化,然后使用TensorBoard显示参数优化的结果。 深度神经网络的参数是什么? 要做到这一点,可以使用为模型提供最佳准度和精度的值来设计神经网络参数。 那么,这些被称为参数参数是什么呢? 用于训练神经网络模型的不同参数称为参数。 这些参数像旋钮一样被调优,以提高神经网络的性能,从而产生一个优化的模型。参数的一个通俗的解释是:用来优化参数参数参数优化是寻找深度学习算法的优化器、学习率、等参数值,从而获得最佳模型性能的过程。 ? 可以使用以下技术执行参数优化。 随着参数数量的增加,随机搜索是一个更好的选择,因为它可以更快地得到参数的良好组合。 贝叶斯优化:整合关于参数的先验数据,包括模型的准确性或损失。先验信息有助于确定模型参数选择的更好近似。

    1.9K20发布于 2020-07-07
  • 来自专栏JNing的专栏

    深度学习: 网络参数设定

    Introduction 网络参数包括: 输入图像像素、卷积层参数、池化层参数。 输入图像像素 应事先将图像统一压缩至 2n2n2^{n} 大小。 卷积层参数 具体可查看TensorFlow中的API:tf.nn.conv2d tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu 小卷积核 大卷积核 优势 1.减少卷积参数总数;2.增强了网络容量和模型复杂度。 1.网络层数少;2.收敛快。 卷积填充 (padding) padding参数设置 含义 “SAME” 保证了 输入 与 输出 的size一致 “VALID” 零填充,尊重原生计算结果 卷积步长 (stride) 卷积时在 图像每一维 池化层参数 池化层的核一般也设置为 较小的size 。 常取的size值为 2×22×22\times2 ,3×33×33\times3 。

    1.1K20发布于 2018-09-27
  • 来自专栏数据科学(冷冻工厂)

    Python 模型参数调优

    导读 本文将对参数进行简要的解释,并推荐一本利用Python进行参数调整的书籍,其中包含了许多参数调整的方法,对于刚刚学习深度学习的小伙伴来说,是一个不错的选择。 2. 参数 在机器学习的上下文中,参数[1]是在开始学习过程之前设置的参数,而不是通过训练得到的参数数据。通常情况下,需要对参数进行优化,给学习机选择一组最优参数,以提高学习的性能和效果。 书 封面 参数是构建有用的机器学习模型的重要元素。本书为 Python 参数调整方法[2](机器学习最流行的编码语言之一)。 这本书涵盖了以下令人兴奋的功能: 发现参数空间和参数分布类型 探索手动、网格和随机搜索,以及每种搜索的优缺点 了解强大的失败者方法以及最佳实践 探索流行算法的参数 了解如何在不同的框架和库中调整参数 参考资料 [1] 参数: https://baike.baidu.com/item/%E8%B6%85%E5%8F%82%E6%95%B0/3101858 [2] 书: https://www.packtpub.com

    62530编辑于 2023-02-27
  • 来自专栏计算机视觉战队

    深度学习参数简单理解

    说到这些参数就会想到Stochastic Gradient Descent (SGD)!其实这些参数在caffe.proto中 对caffe网络中出现的各项参数做了详细的解释。 仅靠人为干预调整参数需要不断修改学习率,因此后面3种参数都是基于自适应的思路提出的解决方案。 后面3中参数分别为:Weight Decay 权值衰减,Momentum 动量和Learning Rate Decay 学习率衰减。 ? 上面这个公式基本思想就是减小不重要的参数对最后结果的影响,网络中有用的权重则不会收到Weight decay影响。

    78490发布于 2018-04-18
  • 来自专栏计算机视觉战队

    深度学习参数简单理解

    ---- 正文: 说到这些参数就会想到Stochastic Gradient Descent (SGD)! 其实这些参数在caffe.proto中 对caffe网络中出现的各项参数做了详细的解释。 Learning Rate 学习率决定了权值更新的速度,设置得太大会使结果超过最优值,太小会使下降速度过慢。 仅靠人为干预调整参数需要不断修改学习率,因此后面3种参数都是基于自适应的思路提出的解决方案。 后面3中参数分别为:Weight Decay 权值衰减,Momentum 动量和Learning Rate Decay 学习率衰减。 ? 上面这个公式基本思想就是减小不重要的参数对最后结果的影响,网络中有用的权重则不会收到Weight decay影响。

    1.6K40发布于 2018-04-17
  • 来自专栏相约机器人

    使用Python进行参数优化

    参数是每个机器学习和深度学习算法的组成部分。与算法本身学习的标准机器学习参数(例如线性回归中的w和b或神经网络中的连接权重)不同,工程师在训练过程之前会设置参数。 该学习速率是最著名的参数之一,C在SVM也是参数,决策树的最大深度是一个参数等,这些可以手动由工程师进行设置。但是如果要运行多个测试,可能会很麻烦。那就是使用参数优化的地方。 这些技术的主要目标是找到给定机器学习算法的参数,该参数可提供在验证集上测得的最佳性能。在本教程中,探索了可以提供最佳参数的几种技术。 它是损失函数的后验分布的函数,描述了参数的所有值的效用。最受欢迎的采集功能有望改善: 其中f是损失函数,x'是当前最佳参数集。 其中之一是参数值的基于梯度的优化。该技术计算有关参数的梯度,然后使用梯度下降算法对其进行优化。这种方法的问题在于,要使梯度下降正常工作,需要凸且平滑的函数,而在谈论参数时通常并非如此。

    2.2K11发布于 2020-11-13
  • 来自专栏DeepHub IMBA

    使用Optuna进行参数优化

    Optuna 的参数调整可视化 参数 常规参数是在训练期间通过机器学习算法学习的参数。而参数是设置如何训练模型的参数,它们有助于训练出更好的模型。 所以更改这个参数可以使模型变得更好或者更差,所以参数的调整是非常重要并且必要的。 参数优化 在参数优化方面有多种选择。最常用的方法是Grid Search和它的一些改进的方法。 假设我们正在构建一棵决策树并使用Grid Search进行参数的优化,在我们的参数中包含了的“基尼系数”和”熵”的参数设置。假设我们在训练时发现前几个测试中“基尼系数”的性能要优越得多。 Random Search通过以不均匀的间隔搜索参数空间,更有可能找到局部最优的参数

    3.5K21发布于 2021-11-08
  • 来自专栏Java Web

    Java 8——行为参数

    Java 8中新增的功能是自Java 1.0发布以来18年以来,发生变化最大的一次。 (1)用行为参数化把代码传递给方法 Java 8中增加了通过API来传递代码的能力,但这实在听起来太绕了,这到底在说什么! 在Java 8中,这样做起来(不止于匿名类)远远比你想象的要来得更加清晰、简洁。 这就是行为参数化:让方法接受多种行为(或战略)作为参数,并在内部使用,完成不同的行为。 你现在在灵活性和简洁性之间找到了最佳平衡点,这在Java 8之前是不可能做到的!

    1.2K70发布于 2018-04-26
  • 来自专栏Datawhale专栏

    算法模型自动参数优化方法!

    什么是参数? 学习器模型中一般有两类参数,一类是可以从数据中学习估计得到,我们称为参数(Parameter)。 还有一类参数时无法从数据中估计,只能靠人的经验进行设计指定,我们称为参数(Hyper parameter)。参数是在开始学习过程之前设置值的参数。相反,其他参数的值通过训练得出。 参数选择不恰当,就会出现欠拟合或者过拟合的问题。在Scikit-Learn中,参数是在学习过程开始之前设置其值的参数。典型的例子包括支持向量机里的C、kernel、gamma等。 网格搜索 GridSearchCV 我们在选择参数有两个途径:1)凭经验;2)选择不同大小的参数,带入到模型中,挑选表现最好的参数。通过途径2选择参数时,人力手动调节注意力成本太高,非常不值得。 如果让随机搜索运行,它会探索每个参数的不同的值 可以方便的通过设定搜索次数,控制参数搜索的计算量。添加参数节点不会影响性能,不会降低效率。

    3.7K20发布于 2021-01-07
  • 来自专栏linux commands

    【Python】8“函数的参数

    位置参数 按函数参数顺序传入参数,这样的参数就叫做位置参数。Java的函数中,规定调用者必须按形式参数顺序依次传入参数,这样也可以看做是位置。 return sum ... >>> calc(1,2,3) 14 >>> calc(2,4,6,8) 120 如果需要传入list或者tuple:在list或者tuple前面加上* >>> list 关键字参数 关键字参数允许调用者传入0个或者任意个含参数名的参数,这些关键字参数在函数内部自动组装为一个dict。 在Python中定义函数,可以用必选参数、默认参数、可变参数、关键字参数和命名关键字参数,这5种参数都可以组合使用。 但是请注意,参数定义的顺序必须是:必选参数、默认参数、可变参数、命名关键字参数和关键字参数

    59020发布于 2021-08-12
  • 来自专栏程序员小王

    第 07 课:XGBoost 参数调整

    前文回顾: 在Python中开始使 scikit-learn 框架提供了搜索参数组合的功能。 此功能在 GridSearchCV 类中提供,可用于发现配置模型以获得最佳表现的最佳方法。 n_estimators)和树大小(max_depth)的网格,通过将网格定义为: 1n_estimators = [50, 100, 150, 200] 2max_depth = [2, 4, 6, 8] import StratifiedKFold 6# load data 7dataset = loadtxt('pima-indians-diabetes.csv', delimiter=",") 8# split data into X and y 9X = dataset[:,0:8] 10Y = dataset[:,8] 11# grid search 12model = XGBClassifier 您学习了如何配置梯度提升模型以及如何设计受控实验来调整 XGBoost 参数。 不要轻视这一点,你在很短的时间内走了很长的路。这只是您在 Python 中使用 XGBoost 的旅程的开始。

    2.3K40发布于 2019-07-01
领券