我遇到了一个回归问题,需要一个模型来预测范围0,1中的值。
我试图查看数据的分布情况,并且似乎使用低值标签(0,0.2)的例子比高值标签(0.2,1)的例子要多。
当我尝试使用MAE度量来训练模型时,模型收敛到一个状态,它有一个非常低的损失,但是模型似乎已经收敛到一个状态,在许多高值标号的例子中它预测了一个低值。
因此,我的假设是,数据是不平衡的,我应该试着根据它们的标签对丢失的例子进行加权。
问:在这种配置中,什么是衡量损失的最佳方法?
我是否应该用某种函数f(x)来加权每个例子的标号,其中f(x)在x低时低,x高时f(X)低?
或者我应该将标签值分割成回收箱([0,0.1),[0.1,0.2]. 0.9,1),并对每个垃圾桶进行加权(类似于绝对减重)?
发布于 2021-06-16 14:07:57
如果您预测的值介于0和1之间,则应该使用beta回归。
β回归将处理异方差或偏斜,这是通常观察到的比率或比例。
发布于 2022-11-16 02:37:31
这种行为在我看来是完全合理的,没有引起注意。
你知道大多数的值都很小。因此,即使考虑到这些特性,获得大值的可能性也很小。
你的预测与此一致:正如我所认为的那样,预测往往很小。
也许还有改进的余地。有一个答案提到了beta回归,这可能是一个值得探索的选择。如果您的值被限制在0到1之间,因为它们是事件发生的比例,您可以考虑获取原始计数并对离散结果进行建模。。
然而,关键是这种模式似乎在做它应该做的事情。
https://datascience.stackexchange.com/questions/41208
复制相似问题