我有很大的困难,拟合一个简单的二维GP开箱使用GPyTorch。正如您在下面所看到的,匹配非常差,并且通过将RBF内核替换为类似于母函数的内容,两者都不会有太大的改善。这种优化看起来确实是趋同的,但在任何明智的事情上都不是。
class GPRegressionModel(gpytorch.models.ExactGP):
def __init__(self, train_x, train_y, likelihood):
super(GPRegressionModel, self).__init__(train_x, train_y, likelihood)
self.mean_module = gpytorch.means.ConstantMean()
self.covar_module = gpytorch.kernels.ScaleKernel(
gpytorch.kernels.RBFKernel(ard_num_dims=2),
)
def forward(self, x):
mean_x = self.mean_module(x)
covar_x = self.covar_module(x)
return gpytorch.distributions.MultivariateNormal(mean_x, covar_x)

除了文档中包含的示例之外,还有其他人有好的教程示例吗?
发布于 2021-04-06 16:51:20
当我试图适应高维高斯过程时,我遇到了类似的问题。有几个建议(不确定这些建议是否有效):
ZeroMean,而不是常量平均值。可能是拥有更多的超参数(常量均值超参数值)可以将-mll目标引导到局部极小,而不是全局极小值。使用不同的优化器,例如lbfgs (它是二阶的,而不是adam或sgd,两者都是一阶的)也可能对此有所帮助。tensor.double()将火炬张量转换为双精度张量,将模型和数据集更改为双精度,64位精度。同样,不能保证这些可以解决您遇到的问题,但希望它们能帮助您解决问题!
https://stackoverflow.com/questions/56657552
复制相似问题