腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(260)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
如何选择网格搜索(当使用trainer.
hyperparameter
_search时)?
我想运行trainer.
hyperparameter
_search (使用网格搜索),而且我还没有看到任何HP算法类型参数。如何配置trainer.
hyperparameter
_search以运行网格搜索?
浏览 11
修改于2022-08-09
得票数 1
回答已采纳
1
回答
Vizier
HyperParameter
优化作业已被服务终止
我在GCP AI平台上运行了一个Vizier
HyperParameter
调优作业,试验一直被中断,出现错误:Terminated by service.
浏览 19
提问于2019-05-27
得票数 1
1
回答
如何在python中对PMML模型进行
HyperParameter
调优?
import Model如何在RandomForest中对这个PMML模型进行
HyperParameter
浏览 0
修改于2019-12-16
得票数 1
1
回答
为SageMaker
HyperParameter
调优作业设置最大运行时
我的培训工作只运行一两分钟,所以我增加了资源限制,这样我就可以并行运行大量的数据(500)。但是,我想设置一些上限,这样我就不会意外地让他们跑上几个小时乘以500.
浏览 2
提问于2021-11-10
得票数 0
1
回答
“global_step”参数从超调包中的'report_
hyperparameter
_tuning_metric‘函数中引用什么?
我正在使用Google顶点AI来训练模型,我不知道这个参数指定了什么。我注意到,在一些顶点AI教程中,这个值也被赋予了一个名为'NUM_EPOCHS‘的变量值。查看包的并没有增加太多的清晰度。
浏览 8
提问于2022-08-10
得票数 0
3
回答
hibernate/Spring/Jpa @oneToMany级联更新
hyperParameter
) {
hyperParameter
.setVersion(this); } this.hyperPara
浏览 20
修改于2017-12-11
得票数 1
回答已采纳
1
回答
写出的超参数调优指标太多
云ML引擎超参数调优失败,错误信息如下: Too many
hyperparameter
tuning metrics were written by
Hyperparameter
Tuning Trial
浏览 11
提问于2018-03-02
得票数 1
回答已采纳
4
回答
每个超参数的值列表
例如,如果我有一个具有3个自变量(不包括常量)的回归,我会传递
hyperparameter
= [x, y, z] (其中x, y, z是浮点数)。如果这个超参数应用于所有变量,我可以简单地使用hp.uniform('
hyperparameter
', a, b)。我希望搜索空间是长度为n的hp.uniform('
hyperparameter
', a, b)的笛卡尔乘积,其中n是回归中的变量数量(所以,基本上是itertools.product(hp.uniform('
hyperpar
浏览 39
修改于2020-08-09
得票数 4
1
回答
如何用mlr3tuningspaces设置xgboost超带优化的“预算”标签?
(mlr3hyperband)search_space = lts("classif.xgboost.default")
浏览 3
修改于2022-06-24
得票数 1
回答已采纳
1
回答
XGBoost的多参数优化
sagemaker.tuner import HyperparameterTuner, IntegerParameter, CategoricalParameter, ContinuousParameter objective_type,
hyperparameter
_ranges= {to_str(k): to_str(v) for (k, v) i
浏览 0
修改于2018-06-28
得票数 3
回答已采纳
2
回答
如何根据matplotlib中的值设置x轴值
0.001,0.01,0.1,1,10,100] plt.title("Plot for accuracy with different
hyperparameter
浏览 0
修改于2019-01-23
得票数 1
1
回答
如何在调用函数时传递变量关键字参数
调用逻辑回归函数的正确方法是: lg = LogisticRegression(solver = "liblinear", max_iter = 10000, parameter=value)
hyperparameter
_tuning
浏览 18
修改于2019-08-13
得票数 1
回答已采纳
1
回答
创建既是nn.Parameter又是nn.Module的类
为了便于管理可训练的超参数,我正在寻找一种方法来创建既充当nn.Parameter又充当nn.Module的类
Hyperparameter
。特别是,我希望将
Hyperparameter
对象用作nn.Parameter (例如,用于张量操作),但仍然可以访问nn.Module提供的接口,例如将对象与其他模块一起存储在nn.ModuleDict我试图通过多重继承来实现这一点,但它并不是很有效: import torch class
Hyperparameter
(torch.nn.Parameter, torch.nn.Module):__in
浏览 26
修改于2021-02-11
得票数 0
1
回答
AWS Eval_Metrics模型中未识别/无效的XGBoost
sagemaker.tuner import IntegerParameter, CategoricalParameter, ContinuousParameter, HyperparameterTuner objective_metric_name,
hyperparameter
_rangesValidationException) when callin
浏览 5
提问于2022-07-01
得票数 0
1
回答
在本地使用SageMaker运行超参数优化作业时出错
我尝试使用下面给出的示例代码在我的机器上本地运行
Hyperparameter
调优作业。tuner = HyperparameterTuner(estimator,
hyperparameter
_ranges, metric_definitions
浏览 23
修改于2021-01-03
得票数 0
1
回答
SageMaker XGBoost超参数调优与XGBoost python包
我从AWS Sagemaker
Hyperparameter
Tuning开始,参数范围如下: subsample=0.75, o
浏览 2
提问于2020-02-27
得票数 0
2
回答
Google Vertex AI超参数调整: 500遇到内部错误
() File "/workspace/.pip-modules/lib/python3.8from google.cloud im
浏览 10
提问于2021-06-11
得票数 0
1
回答
用Keras调谐器搜索调谐器
the optimal hyperparametersThe
hyperparameter
INFO:tensorflow:Oracle triggered exit The
hyperparameter
search is complete.
浏览 9
提问于2022-03-19
得票数 0
回答已采纳
1
回答
是否可以在GCP上使用keras模型进行超参数优化?
基于https://cloud.google.com/blog/products/gcp/
hyperparameter
-tuning-on-google-cloud-platform-is-now-faster-and-smarter
浏览 12
提问于2019-06-06
得票数 0
2
回答
如何手动将超参数分配给LGBM
model = lightgbm.LGBMClassifier()
hyperparameter
_dictionary = {'boosting_type': 'goss', 'num_leaves
浏览 42
修改于2020-01-08
得票数 0
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券