我使用以下R代码来训练我的数据
>mygrid = expand.grid(.decay=seq(0.01,0.1,0.01), .size=c(10:20))
>set.seed(25000)
>nnetfit = train(logprice ~ .,
data=traindata,
method="nnet",
maxit=5000, #max number of iteration
linout=T, #F would be logistic output
tuneGrid=mygrid,
trace=F)结果如下:
> print(nnetfit)
Neural Network
10639 samples
12 predictor
No pre-processing
Resampling: Bootstrapped (25 reps)
Summary of sample sizes: 10639, 10639, 10639, 10639, 10639, 10639, ...
Resampling results across tuning parameters:
decay size RMSE Rsquared MAE
0.01 10 0.3026250 0.6158591 0.2379521
...我的问题是,
Resampling: Bootstrapped (25 reps)
Summary of sample sizes: 10639, 10639, 10639, 10639, 10639, 10639, ... 这两个萝卜的意思是?我认为衰变和尺寸的组合将是10*10=100,所以"25代表“是令人困惑的。
发布于 2018-04-15 20:35:54
为了更真实地估计RMSE和Rsquared,train函数(默认情况下)使用引导重采样方法,重复25次。
对于每一次重复,你的观察都会随机地被替换(所以你可以有重复的观察,这没问题)。nnet只在您的数据子集上开发。每个重采样中保留的任何观察结果都用于确定nnet对logprice的预测有多好。您看到的RMSE和Rsquared是所有25个样本的平均值。
要更改引导示例的数量,必须在trainControl包(https://topepo.github.io/caret/model-training-and-tuning.html#control)中使用https://topepo.github.io/caret/model-training-and-tuning.html#control,例如,对50个示例执行引导重采样:
tc <- trainControl(method="boot",number=50)
nnetfit = train(logprice ~ .,
... all your other hyperparamters...
trControl=tc)https://stackoverflow.com/questions/49845892
复制相似问题