决策树、随机森林、bagging、boosting、Adaboost、GBDT、XGBoost总结
一. 决策树
信息熵越小,数据集
的纯度越大
上建立决策树,数据有
个类别:
表示第K类样本的总数占数据集D样本总数的比例。
,
二. 随机森林
三. GBDT和XGBoost
计算的是当前数据下,模型的分类误差率,模型的系数值是基于分类误差率的
point的候选,遍历所有的候选分裂点来找到最佳分裂点。
来源:https://zhuanlan.zhihu.com/p/75468124
评论
