V17671722158 发表于 2025-2-26 21:22:33

机器学习之集成学习方法

在机器学习中,Bagging、Boosting 和 Stacking 都是集成学习方法,它们通过组合多个模型的预测来提高整体性能。不过,它们的工作原理和实现方式有所不同:
1.Bagging (Bootstrap Aggregating)


[*]原理:Bagging的核心思想是通过对训练集进行自助采样(Bootstrap sampling),生成多个不同的子数据集,然后在这些子数据集上训练多个模型。每个模型独立训练,最后通过投票(分类问题)或平均(回归问题)来做最终预测。
[*]目标:减少模型的方差,避免过拟合。
[*]常见算法:随机森林(Random Forest)。
[*]特点:各个基模型之间相互独立。常用的基模型是决策树(但也可以是其他模型)。对噪声数据的鲁棒性强。
2.Boosting


[*]原理:Boosting的基本思路是将多个弱学习器(通常是简单的模型,比如决策树)按顺序训练,每个模型在训练时会着重于前一个模型未正确分类的样本。后续模型根据前一个模型的错误来调整权重,从而改善整体的预测能力。
[*]目标:减少模型的偏差(提高准确度),通过多个弱学习器的组合构建强学习器。
[*]常见算法:AdaBoost, Gradient Boosting, XGBoost, LightGBM等。
[*]特点:基模型是依次训练的,前一个模型的错误被后续模型纠正。在训练过程中,每个模型会根据前一轮的结果调整权重,逐步改善模型。对噪声和异常值较敏感,容易过拟合(尤其是基学习器较强时)。
3.Stacking (堆叠法)


[*]原理:Stacking是将多个不同类型的模型组合起来,并通过一个“元学习器”进行最终预测。首先,通过多个基模型对训练数据进行预测,然后将这些基模型的预测结果作为输入,训练一个新的模型(通常是一个简单的模型,如线性回归或逻辑回归)来综合这些预测结果。
[*]目标:提高模型的表现,通过不同模型的优势互补来提升性能。
[*]常见算法:通常没有固定的常用算法,可以结合任何类型的模型作为基学习器。
[*]特点:基模型可以是各种不同类型的模型(如SVM, 决策树, 逻辑回归等)。通过一个“元模型”将这些模型的预测组合起来。对模型间的多样性有较高要求,需要适当选择基模型。
总结:


[*]Bagging 通过独立训练多个相同类型的模型并进行平均/投票来减少方差。
[*]Boosting 通过逐个训练多个模型,每个模型纠正前一个模型的错误来减少偏差。
[*]Stacking 通过将多个不同类型的模型的输出组合在一起,并通过元学习器进行最终预测,从而提高整体性能。

他们六月的爱情 发表于 2025-2-27 07:00:32

OMG!介是啥东东!!!

aiyiyi68 发表于 2025-2-27 17:55:05

LZ敢整点更有创意的不?兄弟们等着围观捏~

打喷嚏了 发表于 2025-3-1 12:40:13

确实不错,顶先
页: [1]
查看完整版本: 机器学习之集成学习方法