我手头有一个分类问题,我想用机器学习算法来解决这个问题(贝叶斯或马尔可夫,这个问题与要使用的分类器无关)。在给定大量训练实例的情况下,我正在寻找一种方法来衡量实现的分类器的性能,同时考虑到数据过拟合问题。
也就是说:给定N1..100个训练样本,如果我在每个样本上运行训练算法,并使用这些完全相同的样本来测量适应度,它可能会陷入数据过拟合问题-the分类器将知道训练实例的确切答案,而没有太多的预测能力,导致适应度结果无用。
一个显而易见的解决方案是将手工标记的样本分成训练样本和测试样本;我想了解选择统计上有意义的样本进行训练的方法。
白皮书,书籍指针,和PDF非常感谢!
发布于 2009-01-02 11:29:41
您可以使用10-fold Cross-validation来实现这一点。我认为这是一种非常标准的分类算法性能评估方法。
基本思想是将学习样本划分为10个子集。然后将一个子集用于测试数据,将其他子集用于训练数据。对每个子集重复此操作,并在结束时计算平均性能。
发布于 2009-01-02 11:44:12
正如布朗斯通先生所说,10倍交叉验证可能是最好的方法。我最近不得不评估一些不同分类器的性能,为此我使用了Weka。它有一个API和大量的工具,可以让你轻松地测试许多不同分类器的性能。
https://stackoverflow.com/questions/406518
复制相似问题