卷积的物理意义

卷积是“信号与系统”中论述系统对输入信号的响应而提出的。因为是对模拟信号论述的,所以常常带有繁琐的算术推倒,很简单的问题的本质常常就被一大堆公式淹没了,那么卷积究竟物理意义怎么样呢?

卷积表示为y(n) = x(n)*h(n)

使用离散数列来理解卷积会更形象一点,我们把y(n)的序列表示成y(0),y(1),y(2) and so on; 这是系统响应出来的信号。

同理,x(n)的对应时刻的序列为x(0),x(1),x(2)...and so on;

其实我们如果没有学过信号与系统,就常识来讲,系统的响应不仅与当前时刻系统的输入有关,也跟之前若干时刻的输入有关,因为我们可以理解为这是之前时刻的输入信号经过一种过程(这种过程可以是递减,削弱,或其他)对现在时刻系统输出的影响,那么显然,我们计算系统输出时就必须考虑现在时刻的信号输入的响应以及之前若干时刻信号输入的响应之“残留”影响的一个叠加效果。

假设0时刻系统响应为y(0),若其在1时刻时,此种响应未改变,则1时刻的响应就变成了y(0)+y(1),叫序列的累加和(与序列的和不一样)。但常常系统中不是这样的,因为0时刻的响应不太可能在1时刻仍旧未变化,那么怎么表述这种变化呢,就通过h(t)这个响应函数与x(0)相乘来表述,表述为x(m)×h(m-n),具体表达式不用多管,只要记着有大概这种关系,引入这个函数就能够表述y(0)在1时刻究竟削弱了多少,然后削弱后的值才是y(0)在1时刻的真实值,再通过累加和运算,才得到真实的系统响应。

再拓展点,某时刻的系统响应往往不一定是由当前时刻和前一时刻这两个响应决定的,也可能是再加上前前时刻,前前前时刻,前前前前时刻,等等,那么怎么约束这个范围呢,就是通过对h(n)这个函数在表达式中变化后的h(m-n)中的m的范围来约束的。即说白了,就是当前时刻的系统响应与多少个之前时刻的响应的ﻪ“残留影响”有关。

当考虑这些因素后,就可以描述成一个系统响应了,而这些因素通过一个表达式(卷积)即描述出来不得不说是数学的巧妙和迷人之处了。

对于非数学系学生来说,只要懂怎么用卷积就可以了,研究什么是卷积其实意义不大,它就是一种微元相乘累加的极限形式。卷积本身不过就是一种数学运算而已。就跟“蝶形运算”一样,怎么证明,这是数学系的人的工作。

在信号与系统里,f(t)的零状态响应y(t)可用f(t)与其单位冲激响应h(t)的卷积积分求解得,即y(t)=f(t)*h(t)。学过信号与系统的都应该知道,时域的卷积等于频域的乘积,即有 ﻪY(s)=F(s)×H(s)。(s=jw,拉氏变换后等到的函数其实就是信号的频域表达式)
有一点你必须明白,在通信系统里,我们关心的以及 要研究的是信号的频域,不是时域,原因是因为信号的频率是携带有信息的量。

所以,我们需要的是Y(s)这个表达式,但是实际上,我们往往不能很容易的得到F(s)和H(s)这两个表达式,但是能直接的很容易的得到f(t)和h(t),所以为了找到Y(s)和y(t)的对应关系,就要用到卷积运算。

复频域。
s=jw,当中的j是复数单位,所以使用的是复频域。通俗的解释方法是,因为系统中有电感X=jwL、电容X=1/jwC,物理意义是,系统H(s)对不同的频率分量有不同的衰减,即这种衰减是发生在频域的,所以为了与时域区别,引入复数的运算。但是在复频域ﻪ计算的形式仍然满足欧姆定理、KCL、KVL、叠加法。

负的频率。
之所以会出现负的频率,这只是数学运算的结果,只存在于数学运算 中,实际中不会有负的频率。

卷积的过程就是相当于把信号分解为无穷多的冲击信号,然后进行冲击响应的叠加。

以下我们举四个现实生活的例子来理解卷积的物理意义:

例1:

有一个七品县令,喜欢用打板子来惩戒那些市井无赖,而且有个惯例:如果没犯大罪,只打一板,释放回家,以示爱民如子。

有一个无赖,想出人头地却没啥指望,心想:既然扬不了善名,出恶名也成啊。怎么出恶名?炒作呗!怎么炒作?找名人呀!他自然想到了他的行政长官——县令。

无赖于是光天化日之下,站在县衙门前撒了一泡尿,后果是可想而知地,自然被请进大堂挨了一板子,然后昂首挺胸回家,躺了一天,嘿!身上啥事也没有!第二天如法炮制,全然不顾行政长管的仁慈和衙门的体面,第三天、第四天......每天去县衙门领一个板子回来,还喜气洋洋地,坚持一个月之久!这无赖的名气已ﻪ 经和衙门口的臭气一样,传遍八方了!

县令大人噤着鼻子,呆呆地盯着案子上的惊堂木,拧着眉头思考一个问题:这三十个大板子怎么不好使捏?......想当初,本老爷金榜题名时,数学可是得了满分,今天好歹要解决这个问题:

——人(系统!)挨板子(脉冲!)以后,会有什么表现(输出!)?

——费话,疼呗!——我问的是:会有什么表现?

——看疼到啥程度。

像这无赖的体格,每天挨一个板子啥事都不会有,连哼一下都不可能,你也看到他那得意洋洋的嘴脸了(输出0);如果一次连揍他十个板子,他可能会皱皱眉头,咬咬牙,硬挺着不哼(输出1);揍到二十个板子,他会疼得脸部扭曲,象猪似地哼哼(输出3);揍到三十个板子,他可能会象驴似地嚎叫,一把鼻涕一把泪地求你饶他一命(输出5);揍到四十个板子,他会大小便失禁,勉强哼出声来(输出1);揍到五十个板子,他连哼一下都不可能(输出0)——ﻪ 死啦!

县令铺开坐标纸,以打板子的个数作为X轴,以哼哼的程度(输出)为Y轴,绘制了一条曲线:

——呜呼呀!这曲线象一座高山,弄不懂弄不懂。为啥那个无赖连挨了三十天大板却不喊绕命呀?

——呵呵,你打一次的时间间隔(Δτ=24小时)太长了,所以那个无赖承受的痛苦程度一天一利索,没有叠加,始终是一个常数;如果缩短打板子的时间间隔(建议Δτ=0.5秒),那他的痛苦程度可就迅速叠加了;等到这无赖挨三十个大板(t=30)时,痛苦程度达到了他能喊叫的极限,会收到最好的惩戒效果,ﻪ 再多打就显示不出您的仁慈了。

——还是不太明白,时间间隔小,为什么痛苦程度会叠加呢?

——这与人(线性时不变系统)对板子(脉冲、输入、激励)的响应有关。什么是响应?人挨一个板子后,疼痛的感觉会在一天(假设的,因人而异)内慢慢消失(衰减),而不可能突然消失。这样一来,只要打板子的时间间隔很小,每一个板子引起的疼痛都来不及完全衰减,都会对最终的痛苦程度有不同的贡献:

t个大板子造成的痛苦程度=Σ(第τ个大板子引起的痛苦*衰减系数)[衰减系数是(t-τ)的函数,仔细品味]

数学表达为:y(t)=∫T(τ)H(t-τ)

——拿人的痛苦来说卷积的事,太残忍了。除了人以外,其他事物也符合这条规律吗?

——呵呵,县令大人毕竟仁慈。其实除人之外,很多事情也遵循此道。好好想一想,铁丝为什么弯曲一次不折,快速弯曲多次却会轻易折掉呢?

——恩,一时还弄不清,容本官慢慢想来——但有一点是明确地——来人啊,将撒尿的那个无赖抓来,狠打40大板!

例2:

张三刚刚应聘到了一个电子产品公司做测试人员,他没有学过"信号与系统"这门课程。一天,他拿到了一个产品,开发人员告诉他,产品有一个输入端,有一个输出端,有限的输入信号只会产生有限的输出。

  然后,经理让张三测试当输入sin(t)(t<1秒)信号的时候(有信号发生器),该产品输出什么样的波形。张三照做了,花了一个波形图。

  "很好!"经理说。然后经理给了张三一叠A4纸: "这里有几千种信号,都用公式说明了,输入信号的持续时间也是确定的。你分别测试以下我们产品的输出波形是什么吧!"

这下张三懵了,他在心理想"上帝,帮帮我把,我怎么画出这些波形图呢?"

  于是上帝出现了: "张三,你只要做一次测试,就能用数学的方法,画出所有输入波形对应的输出波形"。

  上帝接着说:"给产品一个脉冲信号,能量是1焦耳,输出的波形图画出来!"

  张三照办了,"然后呢?"

  上帝又说,"对于某个输入波形,你想象把它微分成无数个小的脉冲,输入给产品,叠加出来的结果就是你的输出波形。你可以想象这些小脉冲排着队进入你的产品,每个产生一个小的输出,你画出时序图的时候,输入信号的波形好像是反过来进入系统的。"

  张三领悟了:" 哦,输出的结果就积分出来啦!感谢上帝。这个方法叫什么名字呢?"

  上帝说:"叫卷积!"

从此,张三的工作轻松多了。每次经理让他测试一些信号的输出结果,张三都只需要在A4纸上做微积分就是提交任务了!
----------------------------------------

张三愉快地工作着,直到有一天,平静的生活被打破。

经理拿来了一个小的电子设备,接到示波器上面,对张三说:ﻪ"看,这个小设备产生的波形根本没法用一个简单的函数来说明,而且,它连续不断的发出信号!不过幸好,这个连续信号是每隔一段时间就重复一次的。张三,你来测试以下,连到我们的设备上,会产生什么输出波形!"

  张三摆摆手:"输入信号是无限时长的,难道我要测试无限长的时间才能得到一个稳定的,重复的波形输出吗?"

  经理怒了:"反正你给我搞定,否则炒鱿鱼!"

  张三心想:"这次输入信号连公式都给出出来,一个很混乱的波形;时间又是无限长的,卷积也不行了,怎么办呢?"

  及时地,上帝又出现了:"把混乱的时间域信号映射到另外一个数学域上面,计算完成以后再映射回来"

  "宇宙的每一个原子都在旋转和震荡,你可以把时间信号看成若干个震荡叠加的效果,也就是若干个可以确定的,有固定频率特性的东西。"

  "我给你一个数学函数f,时间域无限的输入信号在f域有限的。时间域波形混乱的输入信号在f域是整齐的容易看清楚的。这样你就可以计算了"

  "同时,时间域的卷积在f域是简单的相乘关系,我可以证明给你看看"

  "计算完有限的程序以后,取f(-1)反变换回时间域,你就得到了一个输出波形,剩下的就是你的数学计算了!"

  张三谢过了上帝,保住了他的工作。后来他知道了,f域的变换有一个名字,叫做傅利叶,什么什么... ...
----------------------------------------
  再后来,公司开发了一种新的电子产品,输出信号是无限时间长度的。这次,张三开始学拉普拉斯了......

例3:

比如说你的老板命令你干活,你却到楼下打台球去了,后来被老板发现,他非常气愤,扇了你一巴掌(注意,这就是输入信号,脉冲),于是你的脸上会渐渐地(贱贱地)鼓起来一个包,你的脸就是一个系统,而鼓起来的包就是你的脸对巴掌的响应,好,这样就和信号系统建立起来意义对应的联系。下面还需要一些假设来保证论证的严谨:假定你的脸是线性时不变系统,也就是说,无论什么时候老板打你一巴掌,打在你脸的同一位置(这似乎要求你的脸足够光滑,如果你说你长了很多青春痘,甚至整个脸皮处处连续处处不可导,那难度太大了,我就无话可说了哈哈),你的脸上总是会在相同的时间间隔内鼓起来一个相同高度的包来,并且假定以鼓起来的包的大小作为系统输出。好了,那么,下面可以进入核心内容——卷积了!

如果你每天都到地下去打台球,那么老板每天都要扇你一巴掌,不过当老板打一巴掌后,你5分钟就消肿了,所以时间长了,你甚至就适应这种生活了……如果有一天,老板忍无可忍,以0.5秒的间隔开始不间断的扇你的过程,这样问题就来了,第一次扇你鼓起来的包还没消肿,第二个巴掌就来了,你脸上的包就可能鼓起来两倍高,老板不断扇你,脉冲不断作用在你脸上,效果不断叠加了,这样这些效果就可以求和了,结果就是你脸上的包的高度随时间变化的一个函数了(注意理解);如果老板再狠一点,频率越来越高,以至于你都辨别不清时间间隔了,那么,求和就变成积分了。可以这样理解,在这个过程中的某一固定的时刻,你的脸上的包的鼓起程度和什么有关呢?和之前每次打你都有关!但是各次的贡献是不一样的,越早打的巴掌,贡献越小,所以这就是说,某一时刻的输出是之前很多次输入乘以各自的衰减系数之后的叠加而形成某一点的输出,然后再把不同时刻的输出点放在一起,形成一个函数,这就是卷积,卷积之后的函数就是你脸上的包的大小随时间变化的函数。本来你的包几分钟就可以消肿,可是如果连续打,几个小时也消不了肿了,这难道不是一种平滑过程么?反映到剑桥大学的公式上,f(a)就是第a个巴掌,g(x-a)就是第a个巴掌在x时刻的作用程度,乘起来再叠加就ok了,大家说是不是这个道理呢?我想这个例子已经非常形象了,你对卷积有了更加具体深刻的了解了吗?

例4:

用复利的例子来理解卷积可能更直观一些:

小明存入100元钱,年利率是5%,按复利计算(即将每一年所获利息加入本金,以计算下一年的利息),那么在五年之后他能拿到的钱数是

,如下表所示:

以此类推,如果小明每年都往银行中存入新的100元钱,那么这个收益表格将是这样的:

可见,最终小明拿到的钱将等于他各年存入的钱分别计算复利之后得到的钱数的总和,即

用求和符号来简化这个公式,可以得到:

在上式中,f(i)为小明的存钱函数,而g(i)为存入银行的每一笔钱的复利计算函数。在这里,小明最终得到的钱就是他的存钱函数和复利计算函数的卷积。

为了更清晰地看到这一点,我们将这个公式推广到连续的情况,也就是说,小明在从0d到t 的这一段时间内,每时每刻都往银行里存钱,他的存钱函数为

,而银行也对他存入的每一笔钱按复利公式计算收益:

,则小明到时间t 将得到的总钱数为:

这也就是卷积的表达式了,上式可以记为

相信通过上面这个例子,大家应该能够很清晰地记住卷积公式了。下面我们再展开说两句:
如果我们将小明的存款函数视为一个信号发生(也就是激励)的过程,而将复利函数

视为一个系统对信号的响应函数(也就是响应),那么二者的卷积

就可以看做是在t 时刻对系统进行观察,得到的观察结果(也就是输出)将是过去产生的所有信号经过系统的「处理/响应」后得到的结果的叠加,这也就是卷积的物理意义了。

原文发布时间为:2016-04-04

时间: 2024-08-18 02:32:28

卷积的物理意义的相关文章

十分钟看懂图像语义分割技术

大多数人接触 "语义" 都是在和文字相关的领域,或语音识别,期望机器能够识别你发出去的消息或简短的语音,然后给予你适当的反馈和回复.嗯,看到这里你应该已经猜到了,图像领域也是存在 "语义" 的. 今天是 AI 大热年,很多人都关注与机器人的语音交互,可是有没有想过,将来的机器人如果不能通过图像来识别主人,家里的物品.宠物,那该多没意思.说近一些,假如扫地机器人能够机智地绕开你丢在地上的臭袜子而扫走旁边的纸屑,一定能为你的生活解决不少麻烦. 没错,图像语义分割是 AI

关于“卷积”的通俗解释

这几天搞图像总遇到卷积,对于以前是通信专业的我来说,卷积并不陌生,<信号与系统>里面的常客,但是既然这个数学工具最初是出于物理上面,那肯定有通俗易懂的物理背景. 数据挖掘中有时需要卷积这一数学工具(例如计算个体适应度.对象间距离,以及干预效果等等),昨天又有同学问到相关问题,借用最近在网上的滚烫的词汇集 { 辐射,服碘,补盐,空袭 },对卷积做了一个直观的解释.反馈还算满意,又在过去讲课的PPT中取些素材,改写成了这篇博文. 幼童背古诗文的感觉,来自数学系的同学觉得卷积是小菜一碟,随手就写出卷

基于深度学习的智能问答

作者:周小强 陈清财 曾华军 1引言 纵观自动问答系统的技术发展历史,从1950年代因图灵测试而诞生至今,已经有几十年的历史.但真正在产业界得到大家的广泛关注,则得益于2011年Siri和Watson成功所带来的示范效应.自此,自动问答系统较以往任何时候都显得离实际应用更近.这一方面归功于机器学习与自然语言处理技术的长足进步,另一方面得益于维基百科等大规模知识库以及海量网络信息的出现.然而,现有的自动问答系统所面临的问题远没有完全解决.事实上,无论是业界应用还是学术研究,问句的真实意图分析.问句

FFmpeg 的sws_getContext函数 、sws_scale函数

FFmpeg里面的sws_scale库可以在一个函数里面同时实现:1.图像色彩空间转换:2.分辨率缩放:3.前后图像滤波处理. 其核心函数主要有三个: // 初始化sws_scalestruct SwsContext *sws_getContext(int srcW, int srcH, enum AVPixelFormat srcFormat,                                  int dstW, int dstH, enum AVPixelFormat dst

【一文读懂Hinton最新Capsules论文】CNN 未来向何处去

Hinton 上周发表的一篇论文 Dynamic Routing Between Capsules 提出用 Capsule 这个概念代替反向传播,引起广泛关注,大数医达创始人,CMU计算机学院暨机器人研究所博士邓侃用浅显的语言梳理解读了论文.邓侃认为,capsule 作为视觉数学表征,很可能是为了把视觉,听觉.阅读的原本相互独立的数学向量,统一起来,完成多模态机器学习的终极目标. CNN 未来向何处去? 做领袖不容易,要不断地指明方向.所谓正确的方向,不仅前途要辉煌,而且道路要尽可能顺畅. G

通信信号处理的一些基本常识

http://www.cnblogs.com/touchblue/archive/2013/02/15/2912920.html 1.符号能量问题      请问各位大虾,像4QAM,16QAM,32QAM,64QAM调制每符号平均能量怎么求解?我看别人程序时,16QAM得每符号平均能为10,不知道怎么求出来的.我想知道对于这些调制方式,怎么加噪的,我看一段程序如下:       Eav=10*d^2; % energy per symbol       snr=10^(SNRindB(p)/1

ICCV 2017 spotlight论文解读:如何提高行人再识别的准确率

一.背景简介 近年来,行人再识别问题(Person-reID)研究热度逐渐上升.与人脸识别相比,它在采集图像时不需要行人主动配合,在安防等领域具有极大的应用潜力.基于深度学习的行人再识别方法,在近几年快速进步,在绝大部分公开数据集上,深度学习特征均超过了手工设计特征.这篇文章的工作主要围绕利用如何更好地学习的深度特征,提高行人再识别的准确率进行.然而,这篇文章实际上没有具体针对行人再识别的特有问题进行分析.优化,笔者认为该方法在小数据集问题上,该方法具有一般性意义,并且,该方法对CNN特征的物理

【祖母论与还原论之争】为什么计算机人脸识别注定超越人类?

灵长类动物脸部识别算法被破译  6月3日,新智元报道,发表在 Cell 的一项研究揭示了人脸识别的具体神经元活动过程.对猕猴的实验表明,对脸部的识别是由大脑中 200 多个不同神经元共同编码完成的,每个神经元会对一张脸不同特征的参数组合进行相应.这一发现推翻了此前人脸由特定细胞识别的假说. 论文的摘要部分介绍说:灵长类动物以惊人的速度和可靠性识别复杂的物体,比如动物的脸.本文中,我们揭示了大脑进行面部识别的代码.猕猴实验表明,在面部结构中,面部和细胞反应之间存在着非常简单的转变.通过将动物的脸格

多模态小组阅读笔记精选 | 每周一起读 #7

本期精读文章 An Empirical Study of Language CNN for Image Captioning 文章来源 https://arxiv.org/abs/1612.07086 推荐理由 本篇论文提出了用 CNN 模型来对单词序列进行表达,该 CNN 的输入为之前时刻的所有单词,进而可以抓住对生成描述很重要的历史信息.其中总体架构如下图所示: 该模型主要由四部分组成,用于图像特征提取的 CNN_I,用于自然语言建模的 CNN_L,用于结合 CNN_I 和 CNN_L 信息