adaboost
提升树
- boosting=加法模型与前向分步算法
- 提升树:以决策树为基函数提升方法
- 分类问题:二叉分类树
- 回归问题:二叉回归树
1. 提升树算法基础
- 提升树模型:决策树的加法模型
其中:
是决策树;是决策树的个数;
M是树的个数;
* 基本定义
- 设初始提升树,第m步的模型;
其中:
* 算法解释
- 针对不同问题的提升树算法,主要区别是损失函数的不同:平方误差的回归问题;指数损失的分类问题;一般损失的决策问题;
* 分类
- 将adaboost的基本分类器限制为二分类器(基函数限制);例如:逻辑回归等;
2. 回归问题的提升树算法
- 数据集:二分类数据集
;
x是实例空间;y是标记集合
将输入空间划分为J个互不相交的区域;并且在每个区域确定输出常量 ;那么树可以表示:
其中:参数,表示树的区域的划分和各区域上的常数,J是回归树的复杂度;即叶的节点数
* 回归树提升使用如下的分步算法:
其中;:是当前模型拟合数据的残差
- 对于回归问题的提升树,只要简单的拟合当前模型的残差