找回密码
 立即注册
搜索

机器学习之集成学习方法

在机器学习中,BaggingBoostingStacking 都是集成学习方法,它们通过组合多个模型的预测来提高整体性能。不过,它们的工作原理和实现方式有所不同:
1.Bagging (Bootstrap Aggregating)


  • 原理:Bagging的核心思想是通过对训练集进行自助采样(Bootstrap sampling),生成多个不同的子数据集,然后在这些子数据集上训练多个模型。每个模型独立训练,最后通过投票(分类问题)或平均(回归问题)来做最终预测。
  • 目标:减少模型的方差,避免过拟合。
  • 常见算法:随机森林(Random Forest)。
  • 特点:各个基模型之间相互独立。常用的基模型是决策树(但也可以是其他模型)。对噪声数据的鲁棒性强。
2.Boosting


  • 原理:Boosting的基本思路是将多个弱学习器(通常是简单的模型,比如决策树)按顺序训练,每个模型在训练时会着重于前一个模型未正确分类的样本。后续模型根据前一个模型的错误来调整权重,从而改善整体的预测能力。
  • 目标:减少模型的偏差(提高准确度),通过多个弱学习器的组合构建强学习器。
  • 常见算法:AdaBoost, Gradient Boosting, XGBoost, LightGBM等。
  • 特点:基模型是依次训练的,前一个模型的错误被后续模型纠正。在训练过程中,每个模型会根据前一轮的结果调整权重,逐步改善模型。对噪声和异常值较敏感,容易过拟合(尤其是基学习器较强时)。
3.Stacking (堆叠法)


  • 原理:Stacking是将多个不同类型的模型组合起来,并通过一个“元学习器”进行最终预测。首先,通过多个基模型对训练数据进行预测,然后将这些基模型的预测结果作为输入,训练一个新的模型(通常是一个简单的模型,如线性回归或逻辑回归)来综合这些预测结果。
  • 目标:提高模型的表现,通过不同模型的优势互补来提升性能。
  • 常见算法:通常没有固定的常用算法,可以结合任何类型的模型作为基学习器。
  • 特点:基模型可以是各种不同类型的模型(如SVM, 决策树, 逻辑回归等)。通过一个“元模型”将这些模型的预测组合起来。对模型间的多样性有较高要求,需要适当选择基模型。
总结:


  • Bagging 通过独立训练多个相同类型的模型并进行平均/投票来减少方差。
  • Boosting 通过逐个训练多个模型,每个模型纠正前一个模型的错误来减少偏差。
  • Stacking 通过将多个不同类型的模型的输出组合在一起,并通过元学习器进行最终预测,从而提高整体性能。
回复

使用道具 举报

大神点评3

他们六月的爱情 2025-2-27 07:00:32 来自手机 显示全部楼层
OMG!介是啥东东!!!
回复

使用道具 举报

aiyiyi68 2025-2-27 17:55:05 显示全部楼层
LZ敢整点更有创意的不?兄弟们等着围观捏~
回复

使用道具 举报

打喷嚏了 2025-3-1 12:40:13 显示全部楼层
确实不错,顶先
回复

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies