机器学习之集成算法 发表于 2019-10-17 更新于 2022-08-26 分类于 机器学习 本文字数: 159 阅读时长 ≈ 1 分钟 集成算法 1.Bagging 训练多个分类器取平均。 代表算法:随机森林,随机森林尽量使得所有决策树之间有差异性,通过两个随机选择来构造有差异的决策树: 数据随机采样 属性(特征)选择随机 2.Boosting 对多个弱学习器加权训练 Adaboosting Xgboosting 3.Stacking:分阶段聚合多个分类或回归模型