正则化(Regularization)是一种在机器学习和统计学中用于防止过拟合的技术,通过向模型引入额外的信息或约束来提高模型在未见数据上的泛化能力。以下是几种常见的正则化方法:
1. L1 正则化(Lasso 回归)
- 在损失函数中加入模型权重的绝对值之和作为惩罚项。
- 公式:( \text{损失函数} + \lambda \sum_{i=1}^{n} |w_i| )
- 特点:倾向于将一些权重压缩到零,从而实现特征选择,适合高维数据。
2. L2 正则化(岭回归)
- 在损失函数中加入模型权重的平方和作为惩罚项。
- 公式:( \text{损失函数} + \lambda \sum_{i=1...