引言:在学习本章节的的内容之前,如果你不太熟悉模型的方差与偏差(偏差与方差(Bias and Variance)),此外还有简单线性模型、多元线性模型(线性回归的R实现与结果解读)、广义线性模型实现t检验和方差分析(线性回归的妙处:t检验与方差分析),以及设计矩阵(设计矩阵(design matrices))。这些内容在之前的章节中已有对应推送,可参考学习。如果你已经非常熟悉这些知识了,就可以直接开始本章节的岭回归学习啦~
如果你在这之前有听说正则化(Regularization),那么你应该知道其在建模中的重要性。正则化是一个大类,包括L1正则化和L2正则化,L1正则化又称为lasso回归(Lasso Regression),L2正则化又称为岭回归(Ridge Regression)。L1正则化和L2正则化合用,又被称为Elastic网络回归(Elastic Net Regression)。
今天我们首先学习L2正则化,也就是岭回归。
内容概要
岭回归的主要思想
岭回归的作用及如何发挥作用
岭回归的多种使用情形
岭回归可以解决样本较少的难题
1.岭回归与线性模型
例如在如下数据中,代表许多只小鼠的体重和体积数据,横坐标对应小鼠的体重,纵坐标对应同一小鼠的体积。
1.1 单独使用线性模型。
单独使用线性模型。通过观察可知,小鼠的体积和对应的体重数据趋近于围绕一条直线分布,故可基于最小二乘法对其拟合线性回归模型(Size = 0.9 + 0.75 x Weight)。根据拟合的线性模型,我们可以预测任意体重小鼠的体积。
岭回归+直线模型:岭回归通过给原始模型增加惩罚实现,其拟合的最佳模型满足(直线的残差平方和+λ x 直线斜率的平方)最小。其中λ是希腊字母,对应读作lambda(λ)。在以下公式中,直线斜率的平方为惩罚(penalty),而λ则确定惩罚的大小。λ的取值范围为(0,+∞),λ为0时,该惩罚项不存在,λ越大对应的惩罚也越大。