腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
3
回答
本地
超
参数
调
优
-- Tensorflow Google Cloud ML Engine
是否可以使用ML引擎
调
优
超
参数
以在本地训练模型?文档只提到了在云中使用
超
参数
调
优
进行培训(提交作业),而没有提到在本地进行培训。否则,是否存在另一种常用的
超
参数
调
优
,将命令
参数
传递给task.py,如人口普查估计器教程中所述?
浏览 2
提问于2018-11-30
得票数 1
1
回答
有了自动化的
超
参数
调
优
,我们还需要学习
超
参数
调
优
吗?
像AWS这样的工具具有自动调整
超
参数
的能力,即使使用Tensorflow的神经网络等复杂的algos也是如此。那么,我们是否还需要学习如何进行
超
参数
调
优
,或者干脆把它留给像Sagemaker这样的工具呢?Thx
浏览 0
提问于2020-11-14
得票数 0
1
回答
写出的
超
参数
调
优
指标太多
云ML引擎
超
参数
调
优
失败,错误信息如下: Too many hyperparameter tuning metrics were written by Hyperparameter Tuning Trial
浏览 11
提问于2018-03-02
得票数 1
回答已采纳
1
回答
StackingRegressor sklearn的
超
参数
调
优
在我的问题中,我想使用一个简单的RandomizedSearchCV调谐器
调
优
sklearn.ensemble.StackingRegressor。因为我们需要在实例化StackingRegressor()时定义估计器,所以我无法在我的param_distribution随机搜索中正确地定义估计器的
参数
空间。有没有办法在StackingRegressor中
调
优
不同估计器的
参数
?
浏览 232
修改于2021-09-21
得票数 0
回答已采纳
1
回答
Google,扩展了以前的
超
参数
调
优
运行
我正在使用Google运行
超
参数
调
优
。我想知道是否有可能从以前的运行中受益(可能是部分的)。 我想在事后延长审判的次数,而不是从头开始。然后,举个例子,我想移除一个自由度(例如training_rate),重点放在其他
参数
浏览 1
修改于2016-10-12
得票数 1
回答已采纳
1
回答
是否对培训或验证数据集进行了
超
参数
调
优
?
是否对培训或验证数据集进行了
超
参数
调
优
?post 这里对是否应该使用训练集进行
超
参数
调整给出了不同的意见。我想知道是否可以在训练数据集上进行
超
参数
调
优
?此外,我想知道为什么我们应该/不应该对训练数据集进行
超
参数
调
优
的后果是什么。 提前感谢!
浏览 0
修改于2023-05-08
得票数 0
2
回答
Python: LightGBM
超
参数
调
优
值错误
我编写了以下代码来在RandomizedSearchCV分类器模型上执行LightGBM,但是我得到了以下错误。码fit_params={"early_stopping_rounds":30, "eval_
浏览 12
提问于2021-04-08
得票数 1
1
回答
带有验证集的
超
参数
调
优
据我所知,如果我错了,请纠正我,当我有一个庞大的数据集时,使用交叉验证进行
超
参数
调
优
是不可取的。因此,在这种情况下,最好将数据拆分到培训、验证和测试集中;然后使用验证集执行
超
参数
调
优
。在我正在编程的情况下,我想使用scikit,酵母数据集可以在:http://archive.ics.uci.edu/ml/datasets/yeast上获得;例如,
调
优
历元数。对于150
浏览 0
提问于2019-09-21
得票数 1
1
回答
超
参数
调
优
k均值聚类
我试图通过在管道中使用决策树分类器来执行时空K-均值聚类的
超
参数
调
优
。其思想是利用K-均值聚类算法生成聚类距离空间矩阵和聚类标签,然后将其传递给决策树分类器。对于
超
参数
调整,只需使用K-均值算法的
参数
即可。我正在使用Python3.8和sklearn 0.22。 我感兴趣的数据有3列/属性:time、x和y (x和y是空间坐标)。
浏览 4
修改于2021-07-24
得票数 1
回答已采纳
1
回答
超
参数
调
优
;ML算法的
参数
空间(rf,adaboost,xgboost)
我试图
调
优
几种ML算法(rf、adaboost和xgboost)的
超
参数
,以训练一个以多类分类变量为目标的模型。我与MLR软件包在R.然而,我不确定以下几点。要
调
优
的
超
参数
(以及使用默认的
超
参数
)的,,
调
优
的
超
参数
的空间应该是什么? 你知道我能从哪里找到这方面的信息吗?
浏览 3
提问于2021-07-22
得票数 0
回答已采纳
1
回答
Google Cloud ML:如何执行
超
参数
调
优
作业的纯网格搜索
在特定情况下,我有一些
超
参数
调
优
作业,在这些作业中,我希望对
超
参数
调
优
作业中的
超
参数
网格执行详尽的搜索。我该怎么做呢?我执行纯网格搜索的动机是:我观察到,针对完全离散类型的
超
参数
的
超
参数
调
优
作业多次评估相同的
超
参数
组合,这是我不想要的。我怀疑这与贝叶斯优化的使用有关。这就是为
浏览 3
提问于2018-01-19
得票数 1
1
回答
python scikit通过核心外学习学习
超
参数
调
优
clf.partial_fit(X_train, y_train, classes=classes)但看起来,由于GridSearchCV有没有一种方法可以
调
优
超
参数
,同时仍然使用内核外学习?
浏览 0
修改于2017-09-23
得票数 3
1
回答
如何在TFX管道中包含
超
参数
调
优
?
然而,在最终的模型训练和评估之前,我也想包括
超
参数
调整。 我的问题是,是否存在在管道中包含
调
优
的最佳实践,如果存在,是否可以公开使用?
浏览 0
提问于2019-06-18
得票数 1
1
回答
Sklearn: ElasticNet
超
参数
调
优
的正确步骤
为了确定
超
参数
(l1,alpha),我使用了ElasticNetCV。使用获得的
超
参数
,我将模型重新调整为整个数据集,以供生产使用。我不确定这在机器学习方面和我如何做到这两个方面都是正确的。
浏览 2
提问于2020-12-17
得票数 0
1
回答
使用GridSearchCV学习随机森林
超
参数
调
优
我计划使用GridSearchCV进行
超
参数
调
优
,但是不同
参数
的值范围应该是多少呢?我如何知道我选择的范围是正确的?我是否应该将这种方法用于随机森林所需的所有
参数
?这种方法可能会错过一个“好的”组合,对吗?
浏览 3
修改于2016-02-02
得票数 9
1
回答
如何在SageMaker管道中创建
超
参数
调
优
步骤?
我正在尝试使用最新的SageMaker Python SDK (v2.23.0)来实现一个包含
超
参数
调
优
作业的SageMaker管道。
浏览 2
提问于2020-12-29
得票数 0
1
回答
如何通过
超
参数
调
优
获得唯一答案?
我想在matlab中训练一个支持向量机分类器,并通过K-折交叉验证找到它的最佳
超
参数
,然后使用该模型对另一个数据集进行分类精度测试。
浏览 14
修改于2020-11-02
得票数 0
2
回答
如何使SageMaker XGBoost
超
参数
调
优
在脚本模式下工作
我将在此之后进行跟踪,并想知道是否可以将脚本模式与
超
参数
调
优
结合起来。如果我尝试这样做,HPT.fit()会一次又一次地运行我的脚本( main()函数,然后是_xgb_train()),但是我不知道如何将算法为我选择的
超
参数
传递给train函数。有什么想法吗?
浏览 9
提问于2022-07-27
得票数 0
1
回答
SageMaker XGBoost
超
参数
调
优
与XGBoost python包
我正在尝试对xgboost模型进行
超
参数
调整。我从AWS Sagemaker Hyperparameter Tuning开始,
参数
范围如下: tags=[{'Key': 'Application', 'Value': 'cxxx'}]) 并获得具有以下
超<
浏览 2
提问于2020-02-27
得票数 0
1
回答
对整个数据集进行
超
参数
调
优
?
这可能是一个奇怪的问题,因为我还没有完全理解
超
参数
调
优
。目前,我正在使用gridSearchCV of sklearn来
调
优
randomForestClassifier的
参数
,如下所示: gs = GridSearchCV(RandomForestClassifier
浏览 0
修改于2018-04-11
得票数 2
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券