《计算机视觉:模型、学习和推理》一2.3 边缘化

2.3 边缘化

任意单变量的概率分布都可以通过在联合概率分布上求其他变量的和(离散)或积分(连续)而得到(见图2-4)。例如,如果x和y是连续的,并且已知Pr(x,y),那么通过如下计算就可以得到概率分布Pr(x)和Pr(y):

Pr(x)=∫Pr(x,y)dy
Pr(y)=∫Pr(x,y)dx

所求出的分布Pr(x)和Pr(y)称为边缘分布,其他变量的积分/求和过程称为边缘化。联合分布Pr(x,y)中忽略变量y的影响,计算边缘分布Pr(x)的过程也可以简单地解释为:计算x的概率分布且忽略(或不考虑)y的值。

(2-1)图2-4 联合概率分布和边缘概率分布。边缘概率Pr(x)由联合概率Pr(x,y)中对所有的y值求和(离散)或积分(连续)所得。同样,边缘概率Pr(y)是通过对所有x求和或积分而得的。注意,由边缘分布与联合分布具有不同的比例(在同一比例下,边缘分布会由于是从一个方向求得的和值所以显得更大)。a) x和y是连续的。b) x和y是离散的。c) 随机变量x是连续变量,变量y是离散的

一般来说,可以通过边缘化所有其他的变量求出任何变量子集的联合概率。例如,给定变量w、x、y、z,其中w是离散的,z是连续的,可以使用下面的式子求得Pr(x,y):

Pr(x,y)=∑w∫Pr(w,x,y,z)dz(2-2)

时间: 2024-11-04 00:14:16

《计算机视觉:模型、学习和推理》一2.3 边缘化的相关文章

《计算机视觉:模型、学习和推理》一导读

前言 目前,已有很多关于计算机视觉的书籍,那么还有必要再写另外一本吗?下面解释撰写本书的原因. 计算机视觉是一门工程学科,机器在现实世界中捕获的视觉信息可以激发我们的积极性.因此,我们通过使用计算机视觉解决现实问题来对我们的知识进行分类.例如,大多数视觉教科书都包含目标识别和立体视觉内容.我们的学术研讨会也是用同样的模式进行组织的.本书对这一传统方式提出了质疑:这真的是我们组织自己知识的正确方法吗? 对于目标识别问题,目前已提出多种算法解决这一问题(例如子空间模型.boosting模型.语义包模

《计算机视觉:模型、学习和推理》——导读

**前言**目前,已有很多关于计算机视觉的书籍,那么还有必要再写另外一本吗?下面解释撰写本书的原因.计算机视觉是一门工程学科,机器在现实世界中捕获的视觉信息可以激发我们的积极性.因此,我们通过使用计算机视觉解决现实问题来对我们的知识进行分类.例如,大多数视觉教科书都包含目标识别和立体视觉内容.我们的学术研讨会也是用同样的模式进行组织的.本书对这一传统方式提出了质疑:这真的是我们组织自己知识的正确方法吗?对于目标识别问题,目前已提出多种算法解决这一问题(例如子空间模型.boosting模型.语义包

《树莓派开发实战(第2版)》——2.2 创建模型和运行推理:重回Hello World

2.2 创建模型和运行推理:重回Hello World 您已经概要了解了Figaro概念,接下来看看它们是如何融合在一起的.您将回顾第1章的Hello World示例,特别注意图2-2中的所有概念是如何出现在这个例子中的.您将关注如何从原子和复合元素中构建模型,观测证据,提出查询,运行推理算法,得到答案. 本章的代码可以两种方式运行.一种是使用Scala控制台,逐行输入语句并获得即时响应.为此,进入本书项目根目录PracticalProbProg/examples并输入sbt console,将

强化学习之 免模型学习(model-free based learning)

  强化学习之 免模型学习(model-free based learning) ------ 蒙特卡罗强化学习 与 时序查分学习   ------ 部分节选自周志华老师的教材<机器学习> 由于现实世界当中,很难获得环境的转移概率,奖赏函数等等,甚至很难知道有多少个状态.倘若学习算法是不依赖于环境建模,则称为"免模型学习(model-free learning)",这比有模型学习要难得多.   1. 蒙特卡罗强化学习: 在免模型学习的情况下,策略迭代算法会遇到几个问题: 首

《计算机视觉:模型、学习和推理》一1.1 本书结构

1.1 本书结构 本书分为六部分,如图1-2所示. 本书的第一部分涵盖概率方面的背景知识.全书中所有的模型都是用概率的术语表示,概率是计算机视觉应用中一门很有用的语言.具有扎实工程数学背景的读者或许对这部分知识比较熟悉,但仍需要浏览这些章节以确保掌握相关的符号.那些尚不具备该背景的读者应该仔细阅读这些章节.这些知识相对比较简单,但它们是本书其余部分的基础.在正式提到计算机视觉知识前被迫阅读三十多页的数学虽然令人沮丧,但请相信我,这些基础知识将为后续的学习提供坚实的基础. 图1-2 章节依赖关系.

《计算机视觉:模型、学习和推理》——1.1 本书结构

1.1 本书结构 本书分为六部分,如图1-2所示. 本书的第一部分涵盖概率方面的背景知识.全书中所有的模型都是用概率的术语表示,概率是计算机视觉应用中一门很有用的语言.具有扎实工程数学背景的读者或许对这部分知识比较熟悉,但仍需要浏览这些章节以确保掌握相关的符号.那些尚不具备该背景的读者应该仔细阅读这些章节.这些知识相对比较简单,但它们是本书其余部分的基础.在正式提到计算机视觉知识前被迫阅读三十多页的数学虽然令人沮丧,但请相信我,这些基础知识将为后续的学习提供坚实的基础. 图1-2 章节依赖关系.

《计算机视觉:模型、学习和推理》一1.2 其他书籍

1.2 其他书籍 我知道大多数人不会单独依靠本书学习计算机视觉,所以这里推荐几本其他的书籍,以便弥补本书的不足.要了解更多关于机器学习和图模型的知识,我推荐将Bishop(2006)所著的<Pattern Recognition and Machine Learning>作为一个很好的切入点.在关于图像预处理的许多著作中,我最喜欢的是Nixon和Aguado所编著的<Feature Extraction and Image Processing>(2008).毫无疑问,关于几何计算

《计算机视觉:模型、学习和推理》——1.2 其他书籍

1.2 其他书籍 我知道大多数人不会单独依靠本书学习计算机视觉,所以这里推荐几本其他的书籍,以便弥补本书的不足.要了解更多关于机器学习和图模型的知识,我推荐将Bishop(2006)所著的<Pattern Recognition and Machine Learning>作为一个很好的切入点.在关于图像预处理的许多著作中,我最喜欢的是Nixon和Aguado所编著的<Feature Extraction and Image Processing>(2008).毫无疑问,关于几何计算

《计算机视觉:模型、学习和推理》一2.7 期望

2.7 期望 给定一个函数f[]和每个x所对应的概率Pr(x=x),函数对变量x的每个值x都返回一个值,有时希望求函数的期望输出.如果从概率分布中抽取大量样本,计算每个样本的函数,并求这些值的平均值,其结果就是期望.更确切地说,在离散及连续的情况下,一个随机变量x的函数f[]的期望值分别定义为 将这种思路推广到二元随机变量的函数f[],则有: 对于某些特殊的函数f[],期望被赋予特殊的名称(见表2-1).这些特殊函数常用来概括复杂概率分布的性质. 表2-1 特殊函数的期望.对于某些函数f

《计算机视觉:模型、学习和推理》——2.8 讨论

2.8 讨论 概率的规则是非常紧凑和简洁的.边缘化.联合条件概率.独立性和贝叶斯公式是本书中所有计算机视觉算法的基础.仅剩概率相关的一个重要概念--条件的独立性,这将在第10章详细讨论.备注关于概率更正式的讨论,鼓励读者研读一本关于该主题的书籍,例如,Papoulis(1991).若从机器学习的视角学习概率,请参考Bishop(2006)第1章.