正则化回归
在线性回归中,我们训练的模型返回训练数据的最佳拟合参数。但是,在训练数据上找到最合适的参数可能会导致过拟合。
过拟合意味着模型最适合训练数据,但会给测试数据带来更大的误差。因此,我们通常在模型中添加惩罚项以获得更简单的模型。
该惩罚项称为正则化项,由此获得的回归模型称为正则化回归模型。正则化模型有三种主要类型:
- 套索回归:在套索正则化中,也称为 L1 正则化,正则化项是套索参数
α
乘以权重w
绝对值之和。因此,损失函数如下:
- 岭回归:在脊正则化中,也称为 L2 正则化,正则化项是脊参数
α
乘以i-th
权重w
的平方和。因此,损失函数如下:
- ElasticNet 回归:当我们添加套索和脊正则化项时,得到的正则化称为 ElasticNet 正则化。因此,损失函数如下:
Refer to the following resources on the internet for further details on regularization: http://www.statisticshowto.com/regularization/.
一个简单的经验法则是当我们想要删除某些特征时使用 L1 或 Lasso,从而减少计算时间,但代价是降低了准确性。
现在让我们看看在 TensorFlow 中实现的这些正则化损失函数。我们将继续使用前面示例中使用的 Boston 数据集。