假设我有兴趣对由不同内容类型组成的一组实例进行分类,例如:
作为特定类relevant或non-relevant的C。
在我的分类过程中,我执行以下步骤:
SVM-text)只对文本进行训练,将文本分类为类C的relevant/non-relevant。SVM-image)只对图像进行训练,将图像分类为relevant/non-relevant,用于C类。SVM-text和SVM-image都会对被分析的内容(文本或图像)与类C相关的概率进行估计。鉴于此,我能够说明文本是否与C相关,图像是否与C相关。
然而,这些估计对于原始样本的片段(无论是文本还是图像)都是有效的,而不清楚如何获得对整个原始样本(text+image)的一般意见。如何方便地将两个分类器的意见结合起来,从而对整个样本进行分类?
发布于 2014-09-16 12:32:10
基本上,你可以做两件事之一:
SVM-text和SVM-image不同,您可以训练同时使用文本和视觉特性的单一SVM。注意,最初是为了结合不同的学习者而创建的,而不是不同的集合(如果功能)。在后一种情况下,当不同类型的特征不能有效地组合在一个向量中时,集合具有很大的优势。但总的来说,梳理功能更简单、更简单。
https://datascience.stackexchange.com/questions/1123
复制相似问题