0
点赞
收藏
分享

微信扫一扫

机器学习理论之(8):模型集成 Ensemble Learning

文章目录

集成学习的思路

  • 通过构造多个基分类器(base classifier)将这些基分类器的分类结果进行集成来得到最终的预测结果
    在这里插入图片描述
  • 模型集成的方法基于下面的直觉:
    • 多个模型的总和决策好于单个模型
    • 多个弱分类器的结果至少和一个强分类器表现相同
    • 多个强分类器的结果至少和一个基分类器表现相同

多个分类器的结果一定好么

  • C 1 , C 2 , C 3 C_1,C_2,C_3 C1,C2,C3 分别代表了 3 个基分类器, C ∗ C^* C 表示的是三个分类器的结合的最终结果:
    在这里插入图片描述
  • 实验结果表明集成的结果未必比单个分类器强

什么时候模型集成有效

  • 基分类器之间不犯同样的错误
  • 每个基分类器都有合理的精度

如何构造基分类器

  • 通过训练实例的划分来产生多个不同的基分类器:对样本实例进行多次采样,每次采样生成一个基分类器
  • 通过训练实例的特征划分来产生多个不同的基分类器:将特征集合划分成多个子集,通过拥有不同特征子集的样本来训练多个基分类器
  • 通过算法调整来产生多个不同的基分类器:给定一个算法,将算法内部的参数进行调整然后根据训练集产生多个不同的基分类器。

如何通过基分类器进行分类

  • 通过多个基分类器进行分类的最常用方法是 投票法
    • 对于离散的输出结果,可以通过计数的方式来得到最终的分类结果,例如一个二分类的数据集,label=0/1,构造了 5 个基分类器,对于某个样本有三个基分类器的输出结果是 1, 两个是 0 那么这个时候,总和来看结果就应该是 1
    • 对于连续型的输出结果,可以将他们的结果进行平均来得到多个基分类器的最终结果

模型的泛化误差

  • Bias(偏置):衡量一个分类器进行错误预测的趋势
  • Variance(变异度):衡量一个分类器预测结果的偏离程度
  • 如果一个模型有更小的 bias 和 variance 就代表这个模型的泛化性能很好。

分类器集成方法

装袋法 Bagging

  • 核心思想:更多数据就应该有更好的表现;那么如何通过固定的数据集来产生更多的数据呢?
  • 通过随机抽样和替换来产生多个不同的数据集
  • 将原始数据集进行有放回的随机采样 N N N 次,得到了 N N N 个数据集,针对这些数据集一共产生 N N N 个不同的基分类器
  • 对于这 N N N 个分类器,让他们采用投票法来决定最终的分类结果
  • 但是装袋法有个问题,那就是有些样本可能永远不会被用到。因为 N N N 个样本,每个样本每次被取到的概率为 1 N \frac{1}{N} N1 那么一共取 N N N 次没取到的概率为 ( 1 − 1 N ) N (1-\frac{1}{N})^N (1N1)N 这个值在 N N N 很大的时候的极限值 ≈ 0.37 \approx0.37 0.37
  • 装袋法的特点:
    • 这是一种基于采样和投票法的集成方法(instance manipulation)
    • 多个单独的基分类器可以同步并行进行计算
    • 可以有效的克服数据集中的噪声数据
    • 通常情况下比单个基分类器的结果好的多,但也存在比单个基分类器效果差的情况

随机森林法 Random Forest

  • 随机森林依赖的单个分类器是决策树,但是这个决策树和之前的决策树略有不同

  • 在随机森林中使用的单个决策树都只选用一部分特征进行树的建立。也就是说随机森林中的树使用的特征空间不是全部的特征空间

    • 例如,采用一个固定的比例 τ \tau τ 来选择每个决策树的特征空间大小
    • 随机森林中的每棵树的建立都比一个单独的决策树要简单和快速;但是这种方法增加了模型的 variance
  • 随机森林中的每棵树都使用了不同的训练集(using different bagged training dataset)

  • 最后通过投票的方法得到最终的结果。
    在这里插入图片描述

  • 这样操作的思想是:尽可能减少任意两棵树之间的关联

  • 随机森林的超参数:

    • 森林中树的个数 B B B
    • 每个特征子集的尺寸,随着尺寸的增加,分类器的能力和相关性都增加了 ( ⌊ l o g 2 ∣ F ∣ + 1 ⌋ \lfloor log_2|F|+1\rfloor log2F+1) 因为随机森林中的每棵树使用的特征越多,其与森林中其他树的特征重合度就可能越高,导致产生的随机数相似度越大
    • 可解释性:单个实例预测背后的逻辑可以通过多棵随机树共同决定
  • 随机森林的特点:

    • 随机森林非常强大,可以高效地进行构建
    • 可以并行的进行
    • 对过拟合有很强的鲁棒性
    • 可解释性被牺牲了一部分,因为每个树的特征都是特征集合中随机选取的一部分

演进法 Boosting

  • boosting 方式主要关注困难样本

  • boosting 可将弱学习器提升为强学习器,其运行机制为:

    • 从初始训练集训练出一个基学习器;这时候每个样本 instance 的权重都为 1 N \frac{1}{N} N1
    • 每个 iteration 都会根据上一轮预测结果调整训练集样本的权重
    • 基于调整后的训练集训练一个新的基学习器
    • 重复进行,直到基学习器数量达到开始设置的值 T T T
    • T T T 个基学习器通过加权的投票方法(weighted voting )进行结合
  • 对于boosting方法,有两个问题需要解决:

    • 每一轮学习应该如何改变数据的概率分布
    • 如何将各个基分类器组合起来
      在这里插入图片描述在这里插入图片描述

AdaBoost

  • adaptive boosting 自适应增强算法;是一种顺序的集成方法(随机森林和 Bagging 都属于并行的集成算法)
  • AdaBoost 的基本思想:
    • T T T 个基分类器: C 1 , C 2 , . . . , C i , . . . , C T C_1,C_2,...,C_i,...,C_T C1,C2,...,Ci,...,CT
    • 训练集表示为 { x j , y j ∣ j = 1 , 2 , . . , N } \{x_j,y_j|j=1,2,..,N\} {xj,yjj=1,2,..,N}
    • 初始化每个样本的权重都为 1 N \frac{1}{N} N1,即: { w j ( 1 ) = 1 N ∣ j = 1 , 2 , . . . , N } \{w_j^{(1)}=\frac{1}{N}|j=1,2,...,N\} {wj(1)=N1j=1,2,...,N}
  • Boosting 集成方法的特点:
    • 他的基分类器是决策树或者 OneR 方法
    • 数学过程复杂,但是计算的开销较小;整个过程建立在迭代的采样过程和加权的投票(voting)上
    • 通过迭代的方式不断的拟合残差信息,最终保证模型的精度
    • 比 bagging 方法的计算开销要大一些
    • 在实际的应用中,boosting 的方法略有过拟合的倾向(但是不严重)
    • 可能是最佳的词分类器(gradient boosting)

Bagging / Random Forest 以及 Boosting 对比

在这里插入图片描述

堆叠法 Stacking

  • 采用多种算法,这些算法拥有不同的 bias
  • Level-0:基分类器

    • 给定一个数据集 ( X , y ) (X,y) (X,y)
    • 可以是 SVM, Naive Bayes, DT 等
  • Level-1:集成分类器

    • 在 Level-0分类器的基础上构建新的 attributes
    • 每个 Level-0 分类器的预测输出都会加入作为新的 attributes;如果有 M M M 个 level-0 分离器最终就会加入 M M M 个 attributes
    • 删除或者保持原本的数据 X X X
    • 考虑其他可用的数据(NB 概率分数,SVM 权重)
    • 训练 meta-classifier 来做最终的预测
  • stacking 方法的特点:
    • 结合多种不同的分类器
    • 数学表达简单,但是实际操作耗费计算资源
    • 通常与基分类器相比,stacking 的结果一般好于最好的基分类器
举报

相关推荐

0 条评论