《计算机视觉:模型、学习和推理》——2.6 独立性

2.6 独立性

如果从变量x不能获得变量y的任何信息(反之亦然),就称x和y是独立的(见图2-6),可以表示为:

图2-6 独立性。a) 连续独立变量x和y的联合概率密度函数。x和y的独立性意味着每一个条件分布相同:从y的值中不能推断出x的取值概率,反之亦然。与图2-5中变量的依赖形成对比。b) 离散独立变量x和y的联合分布。对于给定的y值x的条件分布相同

中可得,独立变量的联合概率Pr(x,y)是边缘概率Pr(x)和Pr(y)的乘积。

时间: 2024-07-31 04:23:31

《计算机视觉:模型、学习和推理》——2.6 独立性的相关文章

《计算机视觉:模型、学习和推理》一导读

前言 目前,已有很多关于计算机视觉的书籍,那么还有必要再写另外一本吗?下面解释撰写本书的原因. 计算机视觉是一门工程学科,机器在现实世界中捕获的视觉信息可以激发我们的积极性.因此,我们通过使用计算机视觉解决现实问题来对我们的知识进行分类.例如,大多数视觉教科书都包含目标识别和立体视觉内容.我们的学术研讨会也是用同样的模式进行组织的.本书对这一传统方式提出了质疑:这真的是我们组织自己知识的正确方法吗? 对于目标识别问题,目前已提出多种算法解决这一问题(例如子空间模型.boosting模型.语义包模

《计算机视觉:模型、学习和推理》——导读

**前言**目前,已有很多关于计算机视觉的书籍,那么还有必要再写另外一本吗?下面解释撰写本书的原因.计算机视觉是一门工程学科,机器在现实世界中捕获的视觉信息可以激发我们的积极性.因此,我们通过使用计算机视觉解决现实问题来对我们的知识进行分类.例如,大多数视觉教科书都包含目标识别和立体视觉内容.我们的学术研讨会也是用同样的模式进行组织的.本书对这一传统方式提出了质疑:这真的是我们组织自己知识的正确方法吗?对于目标识别问题,目前已提出多种算法解决这一问题(例如子空间模型.boosting模型.语义包

《树莓派开发实战(第2版)》——2.2 创建模型和运行推理:重回Hello World

2.2 创建模型和运行推理:重回Hello World 您已经概要了解了Figaro概念,接下来看看它们是如何融合在一起的.您将回顾第1章的Hello World示例,特别注意图2-2中的所有概念是如何出现在这个例子中的.您将关注如何从原子和复合元素中构建模型,观测证据,提出查询,运行推理算法,得到答案. 本章的代码可以两种方式运行.一种是使用Scala控制台,逐行输入语句并获得即时响应.为此,进入本书项目根目录PracticalProbProg/examples并输入sbt console,将

强化学习之 免模型学习(model-free based learning)

  强化学习之 免模型学习(model-free based learning) ------ 蒙特卡罗强化学习 与 时序查分学习   ------ 部分节选自周志华老师的教材<机器学习> 由于现实世界当中,很难获得环境的转移概率,奖赏函数等等,甚至很难知道有多少个状态.倘若学习算法是不依赖于环境建模,则称为"免模型学习(model-free learning)",这比有模型学习要难得多.   1. 蒙特卡罗强化学习: 在免模型学习的情况下,策略迭代算法会遇到几个问题: 首

《计算机视觉:模型、学习和推理》一1.1 本书结构

1.1 本书结构 本书分为六部分,如图1-2所示. 本书的第一部分涵盖概率方面的背景知识.全书中所有的模型都是用概率的术语表示,概率是计算机视觉应用中一门很有用的语言.具有扎实工程数学背景的读者或许对这部分知识比较熟悉,但仍需要浏览这些章节以确保掌握相关的符号.那些尚不具备该背景的读者应该仔细阅读这些章节.这些知识相对比较简单,但它们是本书其余部分的基础.在正式提到计算机视觉知识前被迫阅读三十多页的数学虽然令人沮丧,但请相信我,这些基础知识将为后续的学习提供坚实的基础. 图1-2 章节依赖关系.

《计算机视觉:模型、学习和推理》——1.1 本书结构

1.1 本书结构 本书分为六部分,如图1-2所示. 本书的第一部分涵盖概率方面的背景知识.全书中所有的模型都是用概率的术语表示,概率是计算机视觉应用中一门很有用的语言.具有扎实工程数学背景的读者或许对这部分知识比较熟悉,但仍需要浏览这些章节以确保掌握相关的符号.那些尚不具备该背景的读者应该仔细阅读这些章节.这些知识相对比较简单,但它们是本书其余部分的基础.在正式提到计算机视觉知识前被迫阅读三十多页的数学虽然令人沮丧,但请相信我,这些基础知识将为后续的学习提供坚实的基础. 图1-2 章节依赖关系.

《计算机视觉:模型、学习和推理》一1.2 其他书籍

1.2 其他书籍 我知道大多数人不会单独依靠本书学习计算机视觉,所以这里推荐几本其他的书籍,以便弥补本书的不足.要了解更多关于机器学习和图模型的知识,我推荐将Bishop(2006)所著的<Pattern Recognition and Machine Learning>作为一个很好的切入点.在关于图像预处理的许多著作中,我最喜欢的是Nixon和Aguado所编著的<Feature Extraction and Image Processing>(2008).毫无疑问,关于几何计算

《计算机视觉:模型、学习和推理》一2.7 期望

2.7 期望 给定一个函数f[]和每个x所对应的概率Pr(x=x),函数对变量x的每个值x都返回一个值,有时希望求函数的期望输出.如果从概率分布中抽取大量样本,计算每个样本的函数,并求这些值的平均值,其结果就是期望.更确切地说,在离散及连续的情况下,一个随机变量x的函数f[]的期望值分别定义为 将这种思路推广到二元随机变量的函数f[],则有: 对于某些特殊的函数f[],期望被赋予特殊的名称(见表2-1).这些特殊函数常用来概括复杂概率分布的性质. 表2-1 特殊函数的期望.对于某些函数f

《计算机视觉:模型、学习和推理》——2.8 讨论

2.8 讨论 概率的规则是非常紧凑和简洁的.边缘化.联合条件概率.独立性和贝叶斯公式是本书中所有计算机视觉算法的基础.仅剩概率相关的一个重要概念--条件的独立性,这将在第10章详细讨论.备注关于概率更正式的讨论,鼓励读者研读一本关于该主题的书籍,例如,Papoulis(1991).若从机器学习的视角学习概率,请参考Bishop(2006)第1章.