adaboost


提升树

  • boosting=加法模型与前向分步算法
  • 提升树:以决策树为基函数提升方法
  • 分类问题:二叉分类树
  • 回归问题:二叉回归树

1. 提升树算法基础

  • 提升树模型:决策树的加法模型

其中:

是决策树;是决策树的个数;

M是树的个数;

* 基本定义

  • 设初始提升树,第m步的模型;

其中:

* 算法解释

  • 针对不同问题的提升树算法,主要区别是损失函数的不同:平方误差的回归问题;指数损失的分类问题;一般损失的决策问题;

* 分类

  • 将adaboost的基本分类器限制为二分类器(基函数限制);例如:逻辑回归等;

2. 回归问题的提升树算法

  • 数据集:二分类数据集

;

  • x是实例空间;y是标记集合

  • 将输入空间划分为J个互不相交的区域;并且在每个区域确定输出常量 ;那么树可以表示:

其中:参数,表示树的区域的划分和各区域上的常数,J是回归树的复杂度;即叶的节点数

* 回归树提升使用如下的分步算法:

其中;:是当前模型拟合数据的残差

  • 对于回归问题的提升树,只要简单的拟合当前模型的残差

* 算法流程

results matching ""

    No results matching ""