学习笔记DL008:概率论,随机变量,概率分布,边缘概率,条件概率,期望、方差、协方差

概率和信息论。

概率论,表示不确定性声明数学框架。提供量化不确定性方法,提供导出新不确定性声明(statement)公理。人工智能领域,概率法则,AI系统推理,设计算法计算概率论导出表达式。概率和统计理论分析AI系统行为。概率论提出不确定声明,在不确定性存在情况下推理。信息论量化概率分布不确定性总量。Jaynes(2003)。
机器学习经常处理不确定量,有时处理随机(非确定性)量。20世纪80年代,研究人员对概率论量化不确定性提出信服论据。Pearl(1998)。

不确定性来源。被建模系统内存的随机性。不完全观测,确定系统不能观测到所有驱动系统行为变量,也呈随机性。不完全建模,模型舍弃观测信息,导致预测不确定性。简单而不确定规则比复杂而确定规则更实用,即使真正规则是确定的并且建模型系统足够精确容纳复杂规则。

概率论分析事件发生频率。事件可以重复。结果发生概率p,反复无限次,有p比例会导致某个结果。概率表示信任度(degree of belief)。直接与事件发生的频率相联系,频率派概率(frequentist probability)。涉及到确定性水平,贝叶斯概率(Bayesian probability)。不确定性常识推理,列出若干条期望性质,满足唯一方法是贝叶斯概率和频率概率等同。Ramsey(1926)。概率,处理不确定性逻辑扩展。逻辑提供形式化规则,给定命题真假,判断另一些命题真假。概率论提供形式化规则,给定命题似然,计算其他命题为真似然。

随机变量(random variable)。

随机取不同值变量。无格式字体(plain typeface)小写字母表示随机变量,手写体小写字母表示随机变量取值。随机变量对可能状态描述。伴随概率分布批定每个状态可能性。随机变量可以离散或连续。离散随机变量有限或可数无限多状态。可能没有数值。连续随机变量伴随实数值。

概率分布(probability distribution)。

随机变量或一簇随机变量每个状态可能性大小。描述概率分布方式取决随机变量离散还是连续。

离散型变量和概率质量函数。离散弄变量概率分布用概率质量函数(probability mass function,PMF)描述。大写字母P表示概率质量函数。每个随机变量有一个不同概率质量函数,根据随机变量推断所用PMF。概率质量函数将随机变量每个状态映射到随机变量取该状态概率。x=x概率用P(x)表示,概率1表示x=x确定,概率0表示x=x不可能发生。明确写出随机变量名称,P(x=x)。定义随机变量,用~符号说明遵循分布,x~P(x)。概率质量同时作用多个随机变量。多个变量概率分布为联合概率分布(joint probability distribution)。P(x=x,y=y)表示x=x和y=y同时发生概率。简写P(x,y)。函数P是随机变量x的PMF,P定义域必须是x所有可能状态集合。FORALL(x) ELEMENT(X),0<=P(x)<=1。不可能发生事件概率为0,不存在概率更低状态。确保一定发生事件概率为1,不存在概率更高状态。SUM(x ELEMENT(X),P(x))=1。归一化(normalized)。

离散型随机变量x有k个不同状态,x均匀分布(uniform distribution),每个状态均等可能。PMF,P(x=x i)=1/k。所有i成立。k是一个正整数,1/k是正的。SUM(i, P(x=x i))=SUM(i, 1/k)=k/k=1。分布满足归一化条件。
连续型变量和概率密度函数。连续型随机变量,概率密度函数(probability density function,PDF)描述概率分布。函数p是概率密度函数。p定义域是x所有可能状态集合。FORALL(x) ELEMENT(X),P(x)>=0,不要求p(x)<=1。INTEGRAL(p(x)dx)=1 。概率密度函数p(x)给出落在面积为DELTA(x)无限小区域内概率为p(x)DELTA(x)。概率密度函数求积分,获得点集真实概率质量。x落在集合S中的概率,p(x)对集合求积分得到。单变量,x落在区间[a,b]概率是INTEGRAL([a,b],p(x)dx) 。

实数区间均匀分布。函数u(x;a,b),a和b 是区间端点,满足b>a。符号";"表示以什么为参数。x作函数自变量,a和b作定义函数参数。确保区间外没有概率,所有x NOTELEMENT([a,b]),令u(x;a,b)=0。在[a,b]内,u(x;a,b)=1/(b-a)。任何一点都非负。积分为1。x~U(a,b)表示x在[a,b]上均匀分布。

边缘概率。

定义在子集上的概率分布为边缘概率分布(marginal probability distribution)。离散型随机变量x和y,知道P(x,y),求和法则(sum rule)计算FORALL(x) ELEMENT(X),P(x=x)=SUM(y,P(x=x,y=y)) 。边缘概率名称来源手算边缘概率计算过程。P(x,y)每个值被写在每行表示不同x值、每列表示不同y值网格中,对网络中每行求和,求和结果P(x)写在每行右边纸边缘处。连续型变量,用积分替代求和,p(x)=INTEGRAL(p(x,y)dy。

条件概率。

某个事件上在给定其他事件发生时出现概率。给定x=x,y=y发生条件概率记P(y=y|x=x)。P(y=y|x=x)=P(y=y,x=x)/P(x=x)。条件概率只在P(x=x)>0有定义。不能计算给定在永远不会发生事件上上的条件概率。不要把条件概率和计算当采用某个动作后会发生什么相混淆。

条件概率链式法则。

任何多维随机变量联合概率分布,都可以分解成只有一个变量的条件概率相乘形式。P(x (1) ,…,x (n) )=P(x (1) )PRODUCT(i=2,n,P(x (i) |x (i) ,…,x (i-1) ))。概率链式法则(chain rule)或乘法法则(product rule)。从条件概率定义得到,使用两次定义得到,P(a,b,c)=P(a|b,c)P(b,c)。P(b,c)=P(b|c)P(c)。P(a,b,c)=P(a|b,c)P(b|c)P(c)。

独立性和条件独立性。

两个随机变量x和y,概率分布表示成两个因子乘积形式,一个因子只包含x,另一个因子只包含y,两个随机变量相互独立(independent)。FORALL(x) ELEMENT(x),y ELEMENT(y),z ELEMENT(z),p(x=x,y=y)=p(x=x)p(y=y)。x和y的条件概率分布对于z的每一个值都写成乘积形式,随机变量x和y在给定随机变量z时条件独立(conditionally independent)。FORALL(x) ELEMENT(x),y ELEMENT(y),z ELEMENT(z),p(x=x,y=y|z=z)=p(x=x|z=z)p(y=y|z=z)。简化形式表示独立笥和条件独立性,x UPTACK(y)表示x和y相互独立,x UPTACK(y)|z表示x和y在给定z时条件独立。

期望、方差和协方差。

函数f(x)关于某分布P(x)的期望(expectation)或期望值(expected value),当x由P产生,f作用于x,f(x)的平均值。对于离散型随机变量,求和得到,E x~P [f(x)]=SUM(x,P(x)f(x))。连续型随机变量,求积分得到,E x~p [f(x)]=INTEGRAL(p(x)f(x)dx) 。概率分布在上下文指明,只写出期望作用随机变量名称简化,Ex[f(x)]。期望作用随机变量明确,不写脚标,E[f(x)]。默认,假设E[.]表示对方括号内所有随机变量值求平均。没有歧义时,可以省略方括号。期望线性,E x [af(x)+bg(x)]=aEx[f(x)]+bE x [g(x)]。a和b不依赖x。

方差(variance)衡量,x依据概率分布采样时,随机变量x函数值差异。Var(f(x))=E[(f(x)-E[f(x)]) 2 ]。方差很小时,f(x)值形成簇比较接近期望值。方差的平方根为标准差(standard deviation)。

协方差(covariance),给出两个变量线性相关性强度及变量尺度。Cov(f(x),g(y))=E[(f(x)-E[f(x)])(g(y)-E[g(y)])]。协方差绝对值很大,变量值变化很大,距离各自的均值很远。协方差为正,两个变量倾向于同时取得相对较大值。协方差为负,一个变量倾向于取较大值,另一个变量倾向于取较小值。其他衡量指标,相关系数(correlation),每个变量贡献归一化,只衡量变量相关性,不受各个变量尺度大小影响。

协方差和相关性有联系,是不同概念。联系。两个变量互相独立,协方差为零。两个变量协义差不为零,一定相关。独立性和协方差性质完全不同。两个变量协方差为零,一定没有相互依赖,但具有零协方差可能。从区间[-1,1]均匀分布采样一个实数x,对一个随机变量s采样。s以1/2概率值为1,否则为-1。令y-sx生成一个随机变量y。x和y不相互独立,x完全决定y尺度.Cov(x,y)=0。

随机向量x ELEMENT(R n )协方差矩阵(convariance matrix)是n*n矩阵,满足,Cov(x) i,j =Cov(x i ,x j )。协方差矩阵对角元是方差,Cov(x i ,x i )=Var(x i )。

参考资料:

《深度学习》

欢迎推荐上海机器学习工作机会,我的微信:qingxingfengzi

我有一个微信群,欢迎一起学深度学习。

时间: 2024-09-17 04:31:39

学习笔记DL008:概率论,随机变量,概率分布,边缘概率,条件概率,期望、方差、协方差的相关文章

《计算机视觉:模型、学习和推理》——第2章 概率概述 2.1 随机变量

第2章 概率概述 本章简要回顾概率论.这些知识相对简单而且彼此独立.然而,它们结合在一起构成了一种描述不确定性的强大语言. 2.1 随机变量 随机变量x表示一个不确定的数量.该变量可以表示一个实验的结果(例如,抛硬币)或波动特性的真实量度(例如,测量温度).如果我们观察几个实例{xi}Ii=1,它可能在每一个场合取不同的值.然而,一些值可能比其他值更容易出现.这种信息是由随机变量的概率分布Pr(x)决定的.随机变量可以是离散的或连续的.离散变量从一组预先确定的集合中取值.这组值可能是有序的(掷骰

《计算机视觉:模型、学习和推理》——第1部分 概率

第1部分 概率 本书第一部分(第2-5章)致力于简要回顾概率和概率分布.几乎所有的计算机视觉模型可以在概率范围内解释,本书将在概率论的基础上呈现计算机视觉.概率解释最初看起来可能比较复杂,但它有一个很大的优势:它提供全书使用的通用符号,阐明复杂模型之间的关系.为什么概率是适合描述计算机视觉问题的语言?在照相机里,三维世界投影到光学器件表面从而形成图像:一个关于测量参数的二维集合.我们的目标是获得这些测量参数并使用它们组建创建它们的世界的特性.然而,存在两个问题.首先,测量过程有噪声干扰.我们所观

Deep Learning(深度学习)学习笔记整理系列之(七)

目录: 一.概述 二.背景 三.人脑视觉机理 四.关于特征        4.1.特征表示的粒度        4.2.初级(浅层)特征表示        4.3.结构性特征表示        4.4.需要有多少个特征? 五.Deep Learning的基本思想 六.浅层学习(Shallow Learning)和深度学习(Deep Learning) 七.Deep learning与Neural Network 八.Deep learning训练过程        8.1.传统神经网络的训练方法

帮你全面彻底搞定MATERIAL DESIGN的学习笔记

  这一年就快完了,你还没搞懂Material design吗?是嫌文档太长,还是觉得自己英文不好?都没关系,我们善良热情的@十萬個為什麽 帮同学们通读了一遍官方的设计指南,去糙取精,整理出这篇干货超多的学习笔记,打包票学完基本就掌握90%了,别错过咯! 自从Material design发布以来,可乐橙就在一直收集相关素材与资源,研究别人的作品.这套设计风格非常鲜明,带有浓郁的Google式严谨和理性哲学,深得我心.实际上,光是研究素材和别人作品,就能发现一些明显的规律,做出几分相似的设计.这

简单入门——深度学习笔记(Part I)

更多深度文章,请关注:https://yq.aliyun.com/cloud 作者介绍:Deepak Shah Deepak Shah毕业于德克萨斯奥斯汀分校,徒步旅行爱好者,目前是深度学习\数据科学实习生,研究领域专注于深度学习.编程.金融等方面. 个人主页:http://www.deepakvshah.com/ Medium论坛:https://medium.com/@dvshah13 Github论坛:https://github.com/Dvshah13  笔记分为两个部分,本文是笔记P

两千行代码的PHP学习笔记汇总_php技巧

本文汇总了PHP学习中常见的各类问题,约有两千多行代码,都是非常实用的技巧.分享给大家供大家参考.具体如下: //语法错误(syntax error)在语法分析阶段,源代码并未被执行,故不会有任何输出. /* [命名规则] */ 常量名 类常量建议全大写,单词间用下划线分隔 // MIN_WIDTH 变量名建议用下划线方式分隔 // $var_name 函数名建议用驼峰命名法 // varName 定界符建议全大写 // <<<DING, <<<'DING' 文件名建议

Deep Learning(深度学习)学习笔记整理系列之(八)

目录: 一.概述 二.背景 三.人脑视觉机理 四.关于特征        4.1.特征表示的粒度        4.2.初级(浅层)特征表示        4.3.结构性特征表示        4.4.需要有多少个特征? 五.Deep Learning的基本思想 六.浅层学习(Shallow Learning)和深度学习(Deep Learning) 七.Deep learning与Neural Network 八.Deep learning训练过程        8.1.传统神经网络的训练方法

Deep Learning(深度学习)学习笔记整理系列之(一)(转)

目录: 一.概述 二.背景 三.人脑视觉机理 四.关于特征        4.1.特征表示的粒度        4.2.初级(浅层)特征表示        4.3.结构性特征表示        4.4.需要有多少个特征? 五.Deep Learning的基本思想 六.浅层学习(Shallow Learning)和深度学习(Deep Learning) 七.Deep learning与Neural Network 八.Deep learning训练过程        8.1.传统神经网络的训练方法

Deep Learning(深度学习)学习笔记整理系列之(二)

目录: 一.概述 二.背景 三.人脑视觉机理 四.关于特征        4.1.特征表示的粒度        4.2.初级(浅层)特征表示        4.3.结构性特征表示        4.4.需要有多少个特征? 五.Deep Learning的基本思想 六.浅层学习(Shallow Learning)和深度学习(Deep Learning) 七.Deep learning与Neural Network 八.Deep learning训练过程        8.1.传统神经网络的训练方法