物理学家看人工智能:懂了你就不怕了

马兆远,1997年免试进入北京大学就读,毕业后赴英国牛津大学攻读物理学博士。三年后获得博士学位,并留校工作。2006年赴美国国家标准局联合实验室做博士后;从2007年到2009年在加州大学伯克利分校从事研究工作;2009年被聘为中国科学院百人计划研究员正教授,其研究领域涉及激光冷却量子气体、量子信息技术和精密气体探测装置。中国载人空间站天宫(X-1)号货运飞船冷原子平台首席科学家。他曾师从诺贝尔物理学奖得主威廉·菲利普斯,2009年回国展开科研并创业。

首先我申明,我不是做人工智能的出身,我做物理的出身,也还在做物理,只是从Common Sense 来看人工智能问题。做物理的说搞数学的是人文科学,因为自然科学的基本原则是实验来检验真理,废话少说,做实验给你看。数学不是不重要,只是数学是逻辑,是研究自然科学的工具。基于有限的假设,这么说OK,那么说也OK,要能在某一个领域里得到应用才有意义。同样某一个物理理论能在某一个实验里得到证实才重要,物理是实证的自然科学,因为它可以被证伪。就像我现在看投资项目,想法是最不值钱的,你一旦能在市场里证明盈利能力,估值会完全不同。

回到正题,物理出身,我看问题会更加基础,不会为人云亦云的说法鼓噪,这也符合我一贯烧冷灶的习惯。关于人工智能,回看历史至少引起过人类社会三次恐慌。

第一次是在图灵的年代,美国大片这是个好东西。《模仿游戏》可以去看看。这次恐慌源于计算机的诞生,人们传统认为不可破译的密码,被计算机搞定了。这个趋势发展下去,是不是迟早有一天计算机就可以超过人类?八十年代以后个人电脑的普及带来了又一次恐慌。美国电影《机械战警》、《终结者》都是这个时期的代表。接下来就是这次了,又有《超能陆战队》、《Her》代表这一阶段。

前一阵子遇到一个自封”人工智能狂热粉“的投资人,号称从互联网时代就创业投资做高科技,说起来哪个方向都能整几句的主儿。我调侃的问他,为什么人工去年开始又火了。他说,硬件便宜了所以火了。我,呵呵,这么说,硬件总符合摩尔定律,那为啥不是十年前,不是五年前,不是五年后,不是十年后,差那几块钱吗?这一次,我认为更多是因为谷歌和Facebook”应用了“我党提出的互联网+的概念,把云端接入,相当于机器人前端有了一个强大计算能力的后端。于是有了软件机器人和云端的人工智能。当然,这个也能叫深度学习的策动。

这一次也许不过是前两次的重复。

我们直奔主题,简短洁说下面是我觉得大可不必忧心忡忡世界末日的几个观点

一、哥德尔不完备定律

1931年的时候哥德尔提出了哥德尔不完备证明。哥德尔证明我们以图灵机的方式是制造不出超过人类的计算机的。

哥德尔不完备性定理:任意一个包含一阶谓词逻辑与初等数论的形式系统,都存在一个命题,它在这个系统中既不能被证明也不能被否定。第二不完备性定理如果系统S含有初等数论,当S无矛盾时,它的无矛盾性不可能在系统内证明。从数学逻辑的基础上否定了计算机超过人类。

比如“这句话是错的”,这句话到底是对的还是错的?图灵机是没法说明它是对的还是错的。这就给图灵机开了个后门。这是哥德尔证明的简版。这问题1931年被提出来,图灵机一直没能解决这个问题。现在做线性系统的解决不了这个问题,人类会不断地去用更高维度的东西来解释低维度的东西,你总会在你的体系之外找到你这个体系的漏洞,没法做出一个完全完备的系统。

二、钱德拉塞卡极限证明

另外一个证明就是我最近提出来的所谓Chandrasekhar钱德拉塞卡证明。这个证明并不复杂,买杯啤酒用托盘纸的背面就能演算证明。如果我们认为人类的思维是线性的话,即我们现在计算机的图灵模式,那么我们现在做的计算机接入互联网之后,大概六十万台计算机的计算单元已经与一个人的大脑可比,这也是现在大家炒的深度学习的人工智能的基础。但是我们现在还没有看到互联网这样大规模的互联网有产生像人一样有学习行为。那说明在一定程度上人的思维模式可能不是线性的,不是像计算机这样的图灵机模式。

那么在物理上存在两种信息模式,一种是所谓经典模式,一种是量子模式。我们的思维有没有可能是量子模式呢?量子本身讲的是关联的事情。用量子模式考虑人的大脑: 大脑到底有多复杂?假设每个脑细胞跟6个脑细胞发生关联,这个关联的数量是多大呢?我用一个经典的存储单元来记录这个关联,先不管它这个关联是怎样工作的,有一个关联你至少需要一个单元来记录这个关联。假设我们可以用一个经典的存储单元就能记录一个这样的关联。我们知道经典计算机,它的存储模式是“热投票”。一个磁体计算单元,它存的到底是0还是1呢?去看这个磁畴的时候,我会看到比方说每个磁畴里面会有一万个小的磁畴,小的磁畴就是小的指南针了,当小的指南针有超过百分之五十的指北的时候我会认为这个磁畴存的是1,当超过百分之五十指向南时,我们认为它存的是0。计算机的存储单元都是这样做的。根据大量的热的平均的行为统计来确定这个单元存的是1或者是0。那么热投票最少需要三个粒子,才能投出大多数来。物理实现上,一个记忆单元我们只选三个电子来构造一个经典的记忆单元,比电子轻的光子是没有意义的,它不能用来做记忆单元。

好,我们计算一下这个数量:130亿的脑细胞,每个脑细胞允许跟6个别的脑细胞发生关联,然后每个关联用3个电子来记忆和存储。这是多大的数字呢?130亿的6次方再乘以3。每个电子都是有质量的,质量是不能忽略的。再把电子质量乘进去,那么这个质量等于多大个数字呢?它等于钱德拉塞卡极限。

钱德拉塞卡极限是什么呢?在1938年,钱德拉塞卡提出来:当一个恒星的质量超过钱德拉塞卡极限时,这个恒星则会自动坍缩成一个黑洞。你明白了吗?这说明如果真的用一个经典的存储计算机去模拟一个人的大脑行为,当这个计算机还没做出来,其本身的质量已经把自己压成一个黑洞了。

这也就给出一个旁证,人的大脑行为不是人类用现在地球上的资源能做出来的。钱德拉塞卡极限这个值大约是1.4倍太阳质量。这里取6作为脑细胞可能产生的关联数,事实上每个神经元有可能跟另外1000个神经元发生关联,6这个数字只是在凑钱德拉塞卡极限。这就是说即使我们可以用最轻的单元----电子去做存储,都没有办法去构建一个够大的系统描述一个人的大脑关联行为。从这个角度想,用经典的图灵机办法做出一个超过人脑的计算机这事情是不太可能的。

三、思维的量子本源

我们通常用的计算机,扇区坏了你换个新扇区进去,原来上面存的东西就没有了。但我们人的大脑不断的进行这样的更替,通过新陈代谢,脑细胞里一部分原子被新的原子取代,但记忆并没有消失或受到影响。这机制是很不一样的。

大脑的这个行为,更像是量子化的长程关联,就像电子的超导现象。是一种非局域的相互关系,一对电子形成库柏对,在晶格之间穿行,不再消耗能量。超导这事情不是一个单个的粒子做的事情,而是很多粒子的量子化行为,任何一个的变化对整体的量子效应并没有影响。

我本行是做量子模拟的。费曼讲“只有量子系统才能描述量子系统”,如果我们人类的思维真是量子化的,那么就只能用个量子系统来模拟。一个思路是我在北大的实验室在做的量子模拟,另外一个方向是量子计算。一个从上向下,一个从下向上。但我有个暗黑的想法,原谅一个物理学家的孩子气。因为量子系统有退相干的问题,一个纠缠和相干的系统到底能造多大我们并不知道,我们还在十几个量子比特上努力。大概每两年放一个新的量子比特到系统里,要知道这是符合摩尔定律的,因为量子比特每多一个,希尔伯特空间就多一个自由度,简单来说,就是存储能力翻了一倍。我的暗黑想法在于,即使我们最终的搭建了一个够大量子系统来完整的模拟人的思考能力。这个东西,是不是跟我们人一样,也得吃饭,睡觉,也打盹,也犯各种错误和闹情绪。如果这样,是不是生几个孩子成本低?

别着急反驳,以上想法要说明一个情怀,就是不必危言耸听,人工智能至少在三百年内还没什么机会超越人脑。这个三百年的估计其实源于我们对物理学进展的了解,从牛顿到量子力学诞生两百年,量子力学到现在一百年,我们突然发现我们还懂得不多,甚至被缴了械(为什么,可关注我关于量子管理的思考,比如CC讲坛),大概还要这么长的时间才有可能在这个基础上了解和使用这些技术。三百年不是个太夸张的时间。三百年内,我们大可放心去跟机器相处。

我们时不时的会搞搞大跃进,炒作一个概念会让不少人有新饭吃,每个人都要让自己的选择正义化,看谁抢到话筒。不能说都是泡沫,泡沫对科普有益。但话说回来,在一个神秘主义有上千年传统的国家里,科普和迷信一样的有害。

原文发布时间为:2015-12-05

时间: 2024-09-30 04:49:23

物理学家看人工智能:懂了你就不怕了的相关文章

c语言-edison连接mpu6050代码看不大懂

问题描述 edison连接mpu6050代码看不大懂 #include "math.h" #include "stdio.h" #include "mraa.h" #include "unistd.h" #define MPU6050_I2C_ADDR 0x68 #define PWR_MGMT_1 0x6B #define SMPLRT_DIV 0x19 #define CONFIG 0x1A #define GYRO_CO

位图-mfc显示透明背景代码看不大懂

问题描述 mfc显示透明背景代码看不大懂 /*-----------------显示透明背景图片-------------------*/ void CHIT_MOUSE::TransparentBitmap(HDC hdc HBITMAP hBitmap short xStart short yStart short xadd short yadd COLORREF cTransparentColor){ BITMAP m_bm; COLORREF cColor; // 创建临时DC HDC

printf-mooc上老师讲的代码有两段没有看太懂

问题描述 mooc上老师讲的代码有两段没有看太懂 代码如下 #include<stdio.h> //输入数字然后程序判断这是几位数 int main (){ int x n=0; //x输入的数字 n是用来输出的位数 scanf(""%d""&x); n=n+1; // 3 只要输入数字都是1位以上的不存在0位所以先+1 x /=10; // 4 利用两整数相除省略小数部分,将输入的数字位数减去1位 while(x>0) //判断输入的数字

java-小白问题:JAVA自定义容器类时,一段构造方法不太看得懂,求详细解释

问题描述 小白问题:JAVA自定义容器类时,一段构造方法不太看得懂,求详细解释 我先解释一下题意,现在要设计一个容器类(intArray2),这个容器的本质就是一段数组(暂且只装int值),这个数组可以的索引可以根据使用者传入的数据多少而自动增长,而自动产生新数组覆盖以前的,那么我的疑问就是如下这个....为什么构造方法要像第二图里那么写,而不能照我想的第一张图里的写 我觉的应该如此写(编译通过,运行报错,失败): 正确的写法,为什么要这么写两个: 测试代码,实参传或不传,传什么值,都不影响结果

让技术人员看得懂的流程(2)——用例模型

                    让技术人员看得懂的流程(2)                          --用例模型 一般的管理流程都将软件项目划分为"需求->分析->设计->实现->维护",对应的技术流程中首先也肯定是要将需求明确,而"用例模型"就是用于获得和分析需求的. 简单来说,用例模型就是要将客户的需求写下来."需求"不是很好理解,更加通俗的讲法是"故事(story)".我觉得&

谁能和我说下网络编程,json,http,都有什么联系,,,网上copy过来我也不介意 只要看得懂

问题描述 谁能和我说下网络编程,json,http,都有什么联系,,,网上copy过来我也不介意 只要看得懂 谁能和我说下网络编程,json,http,都有什么联系,,,网上copy过来我也不介意 只要看得懂 解决方案 如果你不需要特别高的性能,那么用http,简单可靠. 解决方案二: json是一种表示数据的格式,和xml有些类似,同时json也符合js语法.http是通讯协议,这种标准的协议任何web浏览器都可以理解,因此它对于客户端来说,兼容性很好.网络编程分为两个方面,一个是web编程,

让技术人员看得懂的流程(6)——处理模型

                   让技术人员看得懂的流程(6)                                 --处理模型 看完"实现模型",你是否长吁一声,准备拿起咖啡,惬意的喝上一杯?毕竟我们已经完成了从用例到编码的全过程了,确实是值得庆祝的一件事情,但"革命尚未成功.同志还需努力",现在还不是享受的时候,接下来我们需要进入"处理模型"阶段. l         "处理模型"阶段的任务 "处

让技术人员看得懂的流程(4)——设计模型

                       让技术人员看得懂的流程(4)                                     --设计模型 完成了"领域模型"阶段后,面向对象已经初具雏形,我们已经看到了那熟悉的"对象"了,例如"商品"."交易"."商品清单"等,看起来已经进入了面向对象的世界了,你是否已经摩拳擦掌,跃跃欲试,准备开始编码了呢? 且慢,"领域模型"只是

应对网络威胁 NGFW看得懂的安全更安全

本文讲的是 :  应对网络威胁 NGFW看得懂的安全更安全  , 自从2013年"棱镜门"事件后,国家高层对网络安全越来越重视,"没有网络安全就没有国家安全"在全社会也形成了共识,普遍认为只有用自主可控的国产软硬件和服务来替代进口产品,才能从根本上提升中国网络安全自我防护能力,只有建立起完全自主.安全可控的核心系统,把信息安全掌握在自己手中,才能确保国家网络安全和信息安全,一场国产化替代浪潮也越掀越高. [IT168 评论]在互联网时代下,网络安全是基础,没有安全一