我目前正在阅读Nello Cristianini的"An Introduction to Support Vector Machines and Other Kernel Based Methods“一书,我无法理解他在第2章和后来的3.2节”到特征空间的隐式映射“中讨论的线性学习机的对偶表示的概念,我不知道这种对偶表示是一般概念还是本书特有的命名约定。这就是为什么我特别引用了这本书和这一节,如果有人已经读过它的话。然而,如果这是一个一般的概念,如果有人能澄清线性学习机的双重表示意味着什么,以及这种双重表示的优势是什么,我将不胜感激。
我希望这不是一个太空泛的问题,但很可惜,我没有背景或对这些概念的理解,所以不能就我的疑问作进一步的阐述。
任何帮助都将不胜感激。
发布于 2012-08-03 08:29:30
这是一个一般性的概念,并不是本书所特有的。
对偶问题的主要好处是数据点只出现在点积中。每对数据点的点积通常用核矩阵表示。如果你使用不同类型的内核,你会得到不同类型的分类器(点:线性,rbf,:rbf网络等)。这被称为内核技巧(或者就像你正在阅读的书似乎将其称为隐式映射到特征空间),这是过去十年机器学习中最重要的突破之一。
不过,并不是所有的东西都可以成为内核。核矩阵需要是半正定的。维基百科上有一篇关于kernel trick的很棒的文章。此外,不仅L2正则化二进制分类器(SVM)可以核化,还有核感知器,核主成分分析,核一切。
https://stackoverflow.com/questions/11784903
复制相似问题