Andrew Ng机器学习公开课笔记 -- 朴素贝叶斯算法

网易公开课,第5,6课 
notes,http://cs229.stanford.edu/notes/cs229-notes2.pdf

前面讨论了高斯判别分析,是一种生成学习算法,其中x是连续值 
这里要介绍第二种生成学习算法,Naive Bayes算法,其中x是离散值的向量 
这种算法常用于文本分类,比如分类垃圾邮件

首先,如何表示一个文本,即x?

 
以上面这种向量来表示,字典中的词是否在该文本中出现 
其中每个词,可以看作是一个特征,对于特征的选取,可以过滤到stop word,或只选取出现多次的值。。。

那么训练集,就是一系列(x向量,y),其中y为0或1表示non-spam,spam

其次,如何建模?

我们可以考虑直接对P(y|x)进行建模,但是x中的feature数一般是比较多的,讲义中假设为50000,那么可以想象x的取值可能性为 ,所以如果要找出每一种x的可能性来建模,基本不可能

所以这种case,需要使用生成学习算法,通过对P(x|y)进行建模,来间接计算出P(y|x) 
因为y的取值只有0,1,看似容易一些 
但这里x的取值是,为一个 参数向量的多项分布,仍然过于复杂

所以最终,提出Naive Bayes (NB) assumption,用于近似和简单对P(x|y)进行建模 
这个假设非常简单,即每个词或feature都是独立出现的 
 

所以上面推导的第二行可以简化为第三行的形式 
虽然这个假设在现实中不可能为真,但是实际的效果挺好

接着写出joint likelihood,用于建模 
 
其中, 
 
  

省去推导过程,得到 
 

其实这里得到这些结果,就算不用最大似然去推导,单纯从概率角度去思考,也会得到这个结果。比如 ,想当然应该是,所有y=1的文本中包含第j个单词的比例 
所以这里使用最大似然推导是一个流程,显得更严谨 
其实可以更直观的得到上面的结果

最后,如果对一个新的x进行预测?

比较简单,用上面的公式计算出每一部分,就可以得到最终的结果 
对于生成算法,分别计算出P(y=1|x)和P(y=0|x) 

 

Laplace smoothing

上面给出的Naive Bayes有个问题是,当给出的x中出现一个训练集从未出现过的词的时候,这时候根据训练集去计算都会得到0
于是会得到这个结果,

这明显是不合理的,这种不合理是由于你的训练集是非常有限的导致的,所以这里需要使用Laplace smoothing来避免这种情况

z取值{1, . . . , k}, 
那么给定m个z的观察值, 
现在要根据观察值,来判断 
根据上面的最大似然结论, 
 
这里问题就在于,如果j在m个观察值中没有出现,那么通过这个公式算出的 为0 
这明显不合理,因为在训练集中没有看到的现象,你不能说他出现的概率为0,只不过是因为训练集有限,没有出现罢了 
Laplace用于描述明天太阳升起的概率,虽然你天天看到太阳升起,但明天太阳依然会升起的概率一定不是1 
所以利用Laplace smoothing,变化为 
  
分子加1,很容易理解,没有就至少算出现一次 
分母之所以要加k,是为了保证

回到我们的问题,经过Laplace smoothing的Naive Bayes分类器变为, 

Naive Bayes的扩展 
1. x取值的扩展 
基本的算法中,x取值为{0,1} 
可以扩展成x的取值为{1, 2, . . . , k}, 
区别就是 ,由Bernoulli分布变为多项分布 
这种扩张常用于使用GDA对连续x进行分类效果不好时, 
将连续的x离散化,比如下面把房屋的面积进行离散化 
 
然后使用Naive Bayes进行分类往往会得到比较好的效果

2. multi-variate Bernoulli event model 
这种扩展往往也是用于文本分类,因为普通的bayes方法只是考虑这个词是否存在,而没有考虑这个词的出现频率 
事件模型就是对这个的一种改进, 
首先表示一个文本或email的方式变了 
普通bayes中,x长度取决于字典的大小,因为xi表示字典中第i个词是否出现 
而这里,x长度取决于文本长短,xi表示在文本中i位置上的词中字典中的索引,如下例

For instance, if an email starts with “A NIPS . . . ,”then x1 = 1 (“a” is the first word in the dictionary), and x2 = 35000 (if“nips” is the 35000th word in the dictionary).

然后是建模,设 
 , 
  

joint似然函数为,m是训练集的大小,n是每个文本中的词的个数 

可以得到,同样省去推导过程 
 
可以看到,这里在考虑字典中索引为k的词时,会把在文本中出现的次数相加 
所以这里不仅仅考虑是否出现,还考虑到到次数

本文章摘自博客园,原文发布日期:2014-04-23 

时间: 2024-08-07 06:59:29

Andrew Ng机器学习公开课笔记 -- 朴素贝叶斯算法的相关文章

Andrew Ng机器学习公开课笔记–Principal Components Analysis (PCA)

网易公开课,第14, 15课  notes,10 之前谈到的factor analysis,用EM算法找到潜在的因子变量,以达到降维的目的 这里介绍的是另外一种降维的方法,Principal Components Analysis (PCA), 比Factor Analysis更为直接,计算也简单些 参考,A Tutorial on Principal Component Analysis, Jonathon Shlens   主成分分析基于, 在现实中,对于高维的数据,其中有很多维都是扰动噪音

Andrew Ng机器学习公开课笔记 -- 支持向量机

网易公开课,第6,7,8课  notes,http://cs229.stanford.edu/notes/cs229-notes3.pdf SVM-支持向量机算法概述, 这篇讲的挺好,可以参考   先继续前面对线性分类器的讨论,  通过机器学习算法找到的线性分类的线,不是唯一的,对于一个训练集一般都会有很多线可以把两类分开,这里的问题是我们需要找到best的那条线 首先需要定义Margin,  直观上来讲,best的那条线,应该是在可以正确分类的前提下,离所有的样本点越远越好,why?  因为越

Andrew Ng机器学习公开课笔记 -- Regularization and Model Selection

网易公开课,第10,11课  notes,http://cs229.stanford.edu/notes/cs229-notes5.pdf   Model Selection 首先需要解决的问题是,模型选择问题,如何来平衡bais和variance来自动选择模型?比如对于多项式分类,如何决定阶数k,对于locally weighted regression如何决定窗口大小,对于SVM如何决定参数C  For instance, we might be using a polynomial reg

Andrew Ng机器学习公开课笔记 -- 学习理论

网易公开课,第9,10课  notes,http://cs229.stanford.edu/notes/cs229-notes4.pdf 这章要讨论的问题是,如何去评价和选择学习算法   Bias/variance tradeoff 还是用这组图,学习算法追求的是generalization error(对未知数据的预测误差),而不是training error(只是对训练集) 最左边,underfit,我们说这种学习算法有较大的bias  Informally, we define the b

Andrew Ng机器学习公开课笔记–Reinforcement Learning and Control

网易公开课,第16课  notes,12 前面的supervised learning,对于一个指定的x可以明确告诉你,正确的y是什么  但某些sequential decision making问题,比如下棋或直升机自动驾驶  无法确切知道,下一步怎么样是正确的,因为这是一个连续和序列化的决策,比如直到最终直升机crash或下棋输了,你才知道之前的选择是不好的,但中间那么多步决策,到底是哪部分出了问题,可见这是个比较复杂的问题 强化学习,基本思路就是,既然不知道怎样是正确的,那就随便try,然

Andrew Ng机器学习公开课笔记 – Factor Analysis

网易公开课,第13,14课  notes,9 本质上因子分析是一种降维算法  参考,http://www.douban.com/note/225942377/,浅谈主成分分析和因子分析 把大量的原始变量,浓缩成少数几个因子变量  原始变量,代表浅层的表面现象,所以一定是很多和繁杂的  而因子变量,是代表深层的本质,因,是无法直接观察到的 所以因子分析,就是拨开现象发现本质的过程...很牛逼的感觉 举个例子,观察一个学生,你可以统计到很多原始变量, 代数,几何,语文,英语各科的成绩,每天作业时间,

Andrew Ng机器学习公开课笔记 -- Logistic Regression

网易公开课,第3,4课  notes,http://cs229.stanford.edu/notes/cs229-notes1.pdf 前面讨论了线性回归问题, 符合高斯分布,使用最小二乘来作为损失函数 下面继续讨论分类问题,分类问题和回归问题不同在于Y的取值是离散的  我们先讨论最简单的binary classification,即Y的取值只有0和1  分类问题一般不会使用回归模型,因为回归模型是输出是连续的,而分类问题需要的输出是离散的 但是一定要用也不是不可以,比如这里继续使用线性回归模型

Andrew Ng机器学习公开课笔记 -- Generalized Linear Models

网易公开课,第4课  notes,http://cs229.stanford.edu/notes/cs229-notes1.pdf 前面介绍一个线性回归问题,符合高斯分布  一个分类问题,logstic回归,符合伯努利分布 也发现他们有些相似的地方,其实这些方法都是一个更广泛的模型族的特例,这个模型族称为,广义线性模型(Generalized Linear Models,GLMs) The exponential family 为了介绍GLMs,先需要介绍指数族分布(exponential fa

Andrew Ng机器学习公开课笔记–Independent Components Analysis

网易公开课,第15课  notes,11 参考, PCA本质是旋转找到新的基(basis),即坐标轴,并且新的基的维数大大降低  ICA也是找到新的基,但是目的是完全不一样的,而且ICA是不会降维的 对于ICA,最经典的问题,"鸡尾酒会"问题  在鸡尾酒会,上很多人同时在说话,还有背景音乐,如果我们放若干个话筒进行声音采集  是否可以从采集到的数据中,分离出每个人独立的声音 假设有n个不同的人,m个时间采集点,一般会用和人数一样多的话筒,也是n个  is an n-dimensiona