独家 | 一文读懂Adaboost


本文是数据派研究部“集成学习月”的第二篇文章,本月将陆续发布关于集中学习的话题内容,月末将有答题互动活动来赢奖,欢迎随时留言讨论相关话题。


引言


在正儿八经地介绍集成学习的内容之前,我们想先介绍一下Kaggle竞赛,这是我们要介绍集成学习的初衷之一。Kaggle(https://www.kaggle.com)是由安东尼·戈德布卢姆在2010年创办的一个数据建模和数据分析平台,其目标就是使数据科学成为一项运动 。这个平台对所有的注册用户开放,企业和研究者可以在上面发布自己的数据并描述自己的目标,感兴趣的数据分析专家可在上面进行竞赛来解决问题。

Kaggle竞赛包括Featured,Recruitment,Research,Playground,Getting started和In class几种类别,其中Featured,Recruitment,Research是企业或研究机构发布的,提供一定数额的奖金,问题比较难;Playground,Getting started则是提供给数据分析爱好者们一些入门级的练习,难度较低,对于新手建议从这两个类别入手;最后In class则是提供给教学用的,老师布置一些任务同班同学可以在上面完成,这个一般是私密的不是外界都能参与的。

Kaggle在数据分析领域非常有影响力,在全球范围内拥有将近20万名数据科学家,其竞赛领域包括计算机科学、统计学、经济学和数学。Kaggle的竞赛在艾滋病研究、棋牌评级和交通预测方面取得了成果并且基于这些成果产生了一系列的学术论文。

什么是集成学习

在很多Kaggle竞赛以及很多工程实践中,集成学习的策略由于其良好的预测性能而备受青睐。那么什么是集成学习?集成学习是一种机器学习框架,其主要思想就是将多个基础模型组合起来,提高整体模型的泛化能力。集成学习的思想背后有比较成熟的数学理论作支撑,也即Valiant和Kearns提出的PAC (Probably approximately correct) 学习框架下的强可学习和弱可学习理论。该理论指出:在PAC 的学习框架中,一个概念如果存在一个多项式的学习方法能够学习它,并且如果预测正确率很高,那么就称这个概念是强可学习的;如果正确率仅比随机猜测略好,那么就称这个概念是弱可学习的。随后,Schapire证明了强可学习和若可学习是等价的,也就是说弱学习模型是可以通过组合提升为强学习模型的,由此便形成了后来的集成学习的思想。

集成学习的思想其实是比较自然的,俗话说的“三个臭皮匠,顶个诸葛亮”,就是一种典型的集成学习的思想。那么集成学习的框架下具体包含哪些算法呢?根据南京大学周志华老师2009年发表的一篇关于集成学习的综述,集成学习的框架主要有三种:boosting,bagging以及stacking,其中boosting包含有Adaboost 和GBDT等,bagging的典型代表是Random Forest,stacking则是多种基础模型的结合,这三种方法思想大同小异,但是模型训练的过程不同,限于篇幅,本文主要介绍boosting学习框架中的Adaboost,在以后的系列文章中会再介绍其他方面有关集成学习的内容。

Boosting

Boosting是一种广泛应用的集成学习框架,该框架一般的训练过程是依次训练基础模型,并在训练过程中对训练集不断地进行调整,也即当前训练所用的训练集由前一次训练的训练集根据某些策略调整得到,最后将所有基础模型组合起来即为最终得到的模型。Boosting学习框架中最具代表性的算法就是Adaboost,因此,本文将通过Adaboost来深入学习boosting思想及其具体实现。

Adaboost算法

大家都知道Adaboost算法是一种应用非常广泛也非常有效的机器学习方法,也被评为数据挖掘领域十大经典算法之一。那么什么是Adaboost算法,一句话描述就是:在当前基础模型训练时,提高训练集中前一个基础模型误分类样本的权重,使得前面被误分类的样本获得更多的关注,从而提升当前基础模型。在机器学习中,Adaboost 是一种有监督的分类(classification)学习算法。

算法步骤:

关于以上步骤的几点说明:

 

  • 每轮训练中所有样本的权重之和为1:

  • 基础模型可以是很简单的模型,例如简单的规则分类器:

  • 从基础模型的权重系数的计算式上可以看出,分类错误率越大的模型系数值越小(注意这里的系数值可以是负数)。
  • 最后一步中基础模型的线性组合不需要再进行训练,这一点与stacking集成学习框架有所区别。

算法伪代码:


为了可以更加专业一点描述Adaboost算法,下面将2.1的步骤以伪代码的形式展现出来,便于后面的实现。

说明:

  • 第1行初始化样本权重,m表示样本总数。
  • 第2到11行表示的是每一轮训练过程,t表示当前训练的轮数,T表示总的训练轮数
  • 第4行计算训练误差
  • 第5行计算当前基础模型的组合系数
  • 第6到8行更新样本权重

Adaboost实例实现


知道了Adaboost算法的执行过程,我们先来找个实际的例子来实现一下,毕竟在实践中学习更有利于我们对算法的理解。为了清楚的展示Adaboost的计算过程,我们利用李航老师《统计学习方法》中的例8.1的数据来实现,也方便大家与书上作比较。

 

首先,在python里载入一些必须的packages:

 

定义基础模型:其中,data就是输入的训练数据,Dt则是第t个基础模型对应的训练样本的权重。这里定义的基础模型非常简单,即找到一个阈值,以该阈值为分类边界进行分类。

Adaboost样本权值修正,提升基础模型:

组合T个基础模型,构建最终的模型并进行预测:

最后,运行一下模型:

输出的结果:数据分布,3个基础模型,最终的准确率

对于Adaboost的实现,笔者有两个建议:

  • 基础模型的类型决定了boosting的方式,基础模型如果直接依赖于分类错误率则可以直接对样本进行重赋权值,如果模型不依赖分类错误率则考虑按样本分布进行抽样。
  • 目前已经有很多非常成熟的开源packages可以直接应用(例如sklearn的AdaboostClassifier),所以能避免重复造轮子就尽量避免。

Adaboost算法推导


对于一些简单的实际应用,知道了前面的算法过程以及如何实现可能就已经够用了,但是深入的理解算法背后的数学原理对于更加灵活的应用是很有帮助的,本文致力于多角度多方面地向大家展示Adaboost算法,希望能够帮助大家深入理解集成学习的特点。出于这样的初衷,后面我们将介绍一些算法的数学原理和算法复杂性的分析。

基于加性模型的推导:

Adaboost的推到方式有很多种,主要有误差界、加性模型等,本文主要从加性模型的角度来推导Adaboost。

由基础模型组合起来的最终模型:

其中ht(x)表示基础模型。

为该加性模型定义一个指数损失函数:

其中y表示数据真实的类别。

因此,在给定训练集(m个样本)的条件下,学习加性模型H(x)就变成了上述损失函数最小化问题:

根据H(x)的定义,通过优化上式,我们可以得到第t轮迭代时最优的α和h(x):

记分类错误率εt为:

并且设: 

则有:

设:

,并由εt的定义可得:

这便得到了基础模型的组合系数,再回头看每轮提升过程中样本权值的更新过程:

可知:

上述权值递推关系经归一化即得:

由此便推导出了Adaboost算法过程。实际上,这种通过从前到后每步只学习一个基础模型及其系数,从而最小化整体的损失函数的方法就是前向分步算法,也就是说Adaboost算法是前向算法的一个特例。

训练误差分析


对于Adaboost模型,其最终模型训练误差的上界是可以推导出来的,如下所示:

也就是说,Adaboost最终模型的训练误差上界可以

确定,这个结论可以证明如下:

算法分析

通过2.2算法的伪代码我们可以分析一下Adaboost算法。

分析算法的性能(收敛性、复杂度):


在此处的分析中,我们忽略基础模型优化的复杂度,默认基础模型是非常简单的模型。在伪代码的第2行的循环内,第4行计算εt以及第6行计算$Z_{t}$的时间均可表示为O(m),内层的for循环也是O(m)复杂度的。因此,整个模型的复杂度可以表示为O(mT)。当然,在实际的应用中,如果基础模型优化本身的复杂度超过O(m),那么整个模型的复杂度也会随之线性增大,对于具体的基础模型应该具体的分析其复杂度。

前面已经说明了Adaboost算法其最终模型训练集的误差是有上确界的,也就是说该算法是确切可以收敛到误差界的。这一点保证了Adaboost算法的可收敛性。

算法的优劣势:

前面就Adaboost算法分析了这么多,那么它到底有哪些优势,又有哪些不足呢?

 

优点:

  • 非常容易训练,实现起来比较容易
  • 泛化错误率低(预测性能好),不易过拟合
  • 不需要调节很多参数,最多修改一下基础模型的数量
  • 适用范围广:二分类问题,多分类问题,回归问题

 

缺点:

  • 对于离群值比较敏感

 

Adaboost的实际应用


目前,大家都知道计算机视觉非常的火,这当然得益于deep learning快速发展,然而在2012年之前,用于做人脸识别等图像检测的方法中,Adaboost占了很大比例。早在2001年Paul Viola和Michael Jones利用Adaboost组合基于Haar特征的弱分类器,使得人脸检测速度大幅度提升。近年来,在Kaggle等公开的竞赛中,Adaboost算法也被广泛采用,而且大部分时候表现都不错,比如将adaboost用在垃圾邮件检测、手写数字识别等项目中。另外,Adaboost模型训练完成后,利用各个基础模型的组合权值系数可以获取特征的重要性顺序,也就是说,Adaboost还可以用于特征提取。

 

总结


集成学习表示的是一种学习框架,主要包含有三种学习方式:boosting, bagging 和 stacking。本问集中在boosting的学习方式,通过具体的Adaboost算法向大家展示了集成学习的主要思想以及一些相关概念。Adaboost算法通过将分类能力比较弱的基础分类器按照训练出来的组合系数组合成强分类器,以实现良好的预测性能,在训练的过程中不断提高上次训练错误分类样本的权重,从而提升整体模型分类能力。

在本文中我们利用简单的例子编码实现了Adaboost算法,说明了其实际工作的原理。Adaboost算法可以利用加性模型的损失函数最小化来推导出来,并且具有确切的误差界,说明了模型的收敛性。最后对于boosting的方法值得注意的一点是,训练的过程改变的是样本的权重,并没有改变样本本身,权重的作用一般体现在分类误差的计算中,当然也有人利用权重分布来对样本进行抽样,这种方法也是可行的,但并不是boosting的核心方式。

想要了解更多集成学习的框架和模型,请关注我们后续系列文章。

原文发布时间为:2017-08-14 

本文作者:轩辕

时间: 2024-10-31 19:06:19

独家 | 一文读懂Adaboost的相关文章

独家 | 一文读懂Hadoop(四):YARN

随着全球经济的不断发展,大数据时代早已悄悄到来,而Hadoop又是大数据环境的基础,想入门大数据行业首先需要了解Hadoop的知识.2017年年初apache发行了Hadoop3.0,也意味着一直有一群人在对Hadoop不断的做优化,不仅如此,各个Hadoop的商业版本也有好多公司正在使用,这也印证了它的商业价值. 读者可以通过阅读"一文读懂Hadoop"系列文章,对Hadoop技术有个全面的了解,它涵盖了Hadoop官网的所有知识点,并且通俗易懂,英文不好的读者完全可以通过阅读此篇文

独家 | 一文读懂Hadoop(一):综述

随着全球经济的不断发展,大数据时代早已悄悄到来,而Hadoop又是大数据环境的基础,想入门大数据行业首先需要了解Hadoop的知识.2017年年初apache发行了Hadoop3.0,也意味着一直有一群人在对Hadoop不断的做优化,不仅如此,各个Hadoop的商业版本也有好多公司正在使用,这也印证了它的商业价值. 读者可以通过阅读"一文读懂Hadoop"系列文章,对Hadoop技术有个全面的了解,它涵盖了Hadoop官网的所有知识点,并且通俗易懂,英文不好的读者完全可以通过阅读此篇文

独家 | 一文读懂Hadoop(三):Mapreduce

随着全球经济的不断发展,大数据时代早已悄悄到来,而Hadoop又是大数据环境的基础,想入门大数据行业首先需要了解Hadoop的知识.2017年年初apache发行了Hadoop3.0,也意味着一直有一群人在对Hadoop不断的做优化,不仅如此,各个Hadoop的商业版本也有好多公司正在使用,这也印证了它的商业价值. 读者可以通过阅读"一文读懂Hadoop"系列文章,对Hadoop技术有个全面的了解,它涵盖了Hadoop官网的所有知识点,并且通俗易懂,英文不好的读者完全可以通过阅读此篇文

独家 | 一文读懂Hadoop(二)HDFS(上)

随着全球经济的不断发展,大数据时代早已悄悄到来,而Hadoop又是大数据环境的基础,想入门大数据行业首先需要了解Hadoop的知识.2017年年初apache发行了Hadoop3.0,也意味着一直有一群人在对Hadoop不断的做优化,不仅如此,各个Hadoop的商业版本也有好多公司正在使用,这也印证了它的商业价值. 读者可以通过阅读"一文读懂Hadoop"系列文章,对Hadoop技术有个全面的了解,它涵盖了Hadoop官网的所有知识点,并且通俗易懂,英文不好的读者完全可以通过阅读此篇文

独家 | 一文读懂Hadoop(二)HDFS(下)

5.1 用户命令 hadoop集群用户的常用命令. 5.1.1 classpath 打印获取Hadoop jar和所需库所需的类路径.如果无参数调用,则打印由命令脚本设置的类路径,可以在类路径条目中包含通配符.其他选项在通配符扩展后打印类路径或将类路径写入jar文件的清单.后者在不能使用通配符且扩展的类路径超过支持的最大命令行长度的环境中非常有用. 5.1.2 dfs HDFS允许以文件和目录的形式组织用户数据.它提供了一个称为FS shell的命令行界面,允许用户与HDFS中的数据交互.此命令

独家 | 一文读懂大数据处理框架

前言 说起大数据处理,一切都起源于Google公司的经典论文:<MapReduce:Simplied Data Processing on Large Clusters>.在当时(2000年左右),由于网页数量急剧增加,Google公司内部平时要编写很多的程序来处理大量的原始数据:爬虫爬到的网页.网页请求日志:计算各种类型的派生数据:倒排索引.网页的各种图结构等等.这些计算在概念上很容易理解,但由于输入数据量很大,单机难以处理.所以需要利用分布式的方式完成计算,并且需要考虑如何进行并行计算.分

独家 | 一文读懂自然语言处理NLP(附学习资料)

前言                                               自然语言处理是文本挖掘的研究领域之一,是人工智能和语言学领域的分支学科.在此领域中探讨如何处理及运用自然语言. 对于自然语言处理的发展历程,可以从哲学中的经验主义和理性主义说起.基于统计的自然语言处理是哲学中的经验主义,基于规则的自然语言处理是哲学中的理性主义.在哲学领域中经验主义与理性主义的斗争一直是此消彼长,这种矛盾与斗争也反映在具体科学上,如自然语言处理. 早期的自然语言处理具有鲜明的经验主义

独家 | 一文读懂推荐系统知识体系-下(评估、实战、学习资料)

本文主要阐述: 推荐系统的评估(Evaluation) 推荐系统的冷启动问题(Cold Start) 推荐系统实战(Actual Combat) 推荐系统案例(Case Study) 浏览前三章的内容请见上篇. 如何判断推荐系统的优劣?这是推荐系统评测需要解决的首要问题.一个完整的推荐系统一般存在3个参与方: 用户 物品提供者 提供推荐系统的网站 好的推荐系统设计,能够让推荐系统本身收集到高质量的用户反馈,不断完善推荐的质量,增加用户和网站的交互,提高网站的收入.因此在评测一个推荐算法时,需要同

独家 | 一文读懂社交网络分析-上(附学习资源)

本文主要阐述: 社交网络的结构特性与演化机理 社交网络群体行为形成与互动规律 社交网络信息传播与演化机理 浏览后四章的内容请见下篇(2017年9月26日二条). 前言 社交网络在维基百科的定义是"由许多节点构成的一种社会结构.节点通常是指个人或组织,而社交网络代表着各种社会关系."在互联网诞生前,社交网络分析是社会学和人类学重要的研究分支.早期的社交网络的主要指通过合作关系建立起来的职业网络,如科研合作网络.演员合作网络等. 本文所指的社交网络分析专指在线社交网络分析(Online S