我想知道是否有一种方法可以访问hyperopt为参数选择的当前值?我想在xgboost的学习率回调函数中使用它的选定值。
from hyperopt import hp
param = {'eta' : hp.uniform('eta', 0.01, 0.1)} # learning rate
param['eta'] # returns <hyperopt.pyll.base.Apply at 0x23fd5699dd8> 发布于 2020-07-08 01:03:56
使用fmin时,您将为目标函数的每次迭代获得'eta‘的值。
例如。
_ = fmin(fn=objective,
space=param,
max_evals=num_trials)目标定义为:
def objective(params: Dict):
# So you can access params['eta'] in this contexthttps://stackoverflow.com/questions/61324590
复制相似问题