MIT重磅研究:基于人工神经网络,探索抑制神经元的生物学意义

在近几年,人工神经网络——一种参照大脑运作模式而建成的计算模型——已经成为了最为炙手可热的人工智能系统,并且应用于从语音到图像的各个领域。

雷锋网消息,MIT CSAIL 于今日发布了一个重磅研究成果:他们已经开发出一个大脑神经回路的计算模型,它揭示了抑制神经元的生物意义。

这个模型是由一组输入神经元阵列与同等数量的输出神经元组成,采用「竞争学习规则」(winner-take-all)来操作。

也就是说,网络的输出神经元之间相互竞争以求被激活,但在每一时刻只有一个输出神经元被激活。这个被激活的神经元称为竞争获胜神经元,而其它神经元的状态被抑制,故称为 Winner Take All,这就像美国大选一样,在该州获得更多选票的候选者就会得到该区所有的选票。

MIT 研究者们证明,通过使用理论计算机科学的相关工具,他们的模型能够让一定配置的抑制性神经元遵循「竞争学习规则」,并获得最有效的结果。这其中原因何在?真相就在于该模型能够对抑制性神经元在大脑中的行为进行预测,而这也成为了计算分析辅佐神经科学研究的绝佳例子。

这一新发现在本周的理论计算机科学变革会议上公布。论文作者为 MIT 软件科学及工程的 NEC 教授 Nancy Lynch,博士后 Merav Parter 及电子工程与计算机科学的研究生 Cameron Musco。Lynch 表示,「这一发现能够为计算机网络或以手机为代表的电子设备与生物系统中的神经网络之间建立起紧密联系,我们正在尝试从分布式计算的角度寻找可能使之受益的方向,并将重点放在算法上。」

为了补充一些背景知识,雷锋网先为大家简单介绍一下人工神经网络与人体神经网络的联系与区别:

我们都知道,大脑的神经细胞存在两种状态:兴奋和抑制。神经细胞通过某种方式将所有树突上的信号进行相加,如果信号总和超过了某个阈值,那么这个神经细胞就会被刺激,达到兴奋状态。人工神经网络也就是模仿上述原理而设计的一种算法模型。

人工神经网络与人体的神经元类似,由多个节点(神经元)之间联结而成,每个节点代表一种特定的输出函数,并根据各个节点的不同权重生成不同的计算输出。

由于权重能够表示激发或抑制作用(在这里,雷锋网为大家简单表示为正负关系),这些或正或负的数据将作为激励函数的输入进行作用。而这个激励函数经过所有不同节点的权重综合计算后得到一个新的激励值,并最终得到我们想要的结果。

而在人工智能应用中,实际情况当然会更加复杂一些。一个神经网络可以接受不同数据的训练,不断通过调整权重而得到更契合实际的结果。

“生物层面上的真实性”

Lynch 团队对该模型进行了多处修改,使得人工神经网络在生物层面更加真实。首先是增加抑制性神经元的数量。通常在人工神经网络中,连接上的权重值就和雷锋网方才提及的一样,通常是正的,或者是可正可负的。但在人体大脑中,有一些神经网络能够发挥纯粹的抑制作用,并阻止其它神经元活动,因此 MIT 的研究人员参考这一点,将这些神经元建模为只连接负权重的节点。

而就像我们所了解到的一样,很多人工智能采用的是前馈网络,即信号只从一个方向通过网络,从接收输入数据的第一层到提供计算结果的最后一层。但大脑间的反馈会更加复杂一些。Lynch、Parter 及 Musco 的神经网络就增加了一层反馈机制,输出神经元的信号传递到抑制性神经元,它的输出会再次传递到输出层。此外,输出神经元的信号也会反馈给自身,这对竞争学习规则而言显得非常重要且有效。

MIT 的研究人员改进的人工神经网络还有一点最大的不同在于,神经网络变得更具概率性。因为在此前传统的人工神经网络中,如果节点的输入值超过某个阈值,则节点会被激发。但在大脑中,即使增加了输入神经元的信号强度,也只会增加输出神经元激活信号的机会。这同样对于竞争学习规则也具有不小的意义。

抑制的优点

Parter 与她的同事们成功证明,如果只有一个抑制性神经元,是不可能变成竞争学习的最终「赢家」的(但两个就 OK 了!)。其中的秘诀在于,如果多于一个输出神经元激活抑制性神经元(研究人员称之为收敛神经元)能够激活强抑制信号。而另一个抑制性神经元(被称为稳定神经元)的功能在于,只要任何输出神经元正在激活信号,那么它都只会发出更弱的信号。

收敛神经元能够驱动神经网络选择单个输出神经元,并在该节点上停止激活信号;而稳定神经元则会在收敛神经元已经停止活动时防止输出神经元的第二次作用。而如果输出神经元被抑制的时间越久,它越有可能继续保持这一状态。而一旦选择了单个输出神经元,它的反馈回路能够确保自己能够克服稳定神经元的抑制作用。

但是,如果缺少了随机性,网络并不会收敛到单个输出神经元,抑制性神经元权重的任何设置将同等地影响所有的输出神经元。「你需要随机性来打破这种对称性,」Parter 解释道。

研究人员能够确定所需要的辅助神经元的最小数量,以保证特定收敛的速度,以及在一定数量的辅助神经元的情况下的最大收敛速度。

越多的收敛神经元并不代表着收敛速度一定会加快,比如说现在有 100 个输入神经元,两到三个收敛神经元已经足够,而增加第四个并不会增加你的速度。与此同时,一个稳定神经元已经足够。

但更有意思的地方在于,研究人员发现兴奋性神经元(刺激)与抑制神经元一样,并不能增强神经网络的处理效率。

Salk 生物研究所的助理教授 Saket Navlakha 表示,这个模型能够应用于很多的感觉系统中,包括生成稀疏码的嗅觉系统。「我们已经发现了许多类型的抑制性神经元,下一步我们打算看看是否能像论文所说的一样,将抑制性神经元分为上述两类。」

卡耐基梅隆大学计算机科学 Ziv Bar-Joseph 表示,「神经科学在计算模型上需要考虑更多的细节,除了抑制性神经元如何发生作用外,什么样的蛋白质能够驱动它们呢?」目前,Nancy 正在对神经网络进行全面性的观察,并研究抑制神经元的数量。而这种基于宏观层面范围内的建模,相信能够为人类带来普适性更强的预测。

via MIT,雷锋网(公众号:雷锋网)编译

本文作者:奕欣

本文转自雷锋网禁止二次转载,原文链接

时间: 2024-10-23 19:35:13

MIT重磅研究:基于人工神经网络,探索抑制神经元的生物学意义的相关文章

MIT 重磅研究成果:已开发出大脑神经回路计算模型

在近几年,人工神经网络--一种参照大脑运作模式而建成的计算模型--已经成为了最为炙手可热的人工智能系统,并且应用于从语音到图像的各个领域. AI科技评论消息,MIT CSAIL 于今日发布了一个重磅研究成果:他们已经开发出一个大脑神经回路的计算模型,它揭示了抑制神经元的生物意义. 这个模型是由一组输入神经元阵列与同等数量的输出神经元组成,采用「竞争学习规则」(winner-take-all)来操作. 也就是说,网络的输出神经元之间相互竞争以求被激活,但在每一时刻只有一个输出神经元被激活.这个被激

人工网络-基于人工神经网络的人脸识别算法

问题描述 基于人工神经网络的人脸识别算法 本人初次接触机器学习,0基础,现不得已需要学习BP和RBF算法,求高手指导(注:以前从未接触过这两种算法,所以最好能提供些具体讲解此两种算法的资料) 解决方案 Andrew Ng stanford 机器学习课程视频,网站学习:http://ufldl.stanford.edu/wiki/index.php/UFLDL%E6%95%99%E7%A8%8B 解决方案二: 我正在做这个,非常非常好

基于人工神经网络的seo优化评估可行性研究进行中

目前seo们主要操作手法,判断竞争程度,研究搜索引擎的脾气,这些都是通过实验看到的现象去反推测本质,这种推测法难免有它的弊端.并且每个seoer可能都有自己的实验结果,并不统一,8630.html">有时候甚至同样的两个实验得到的结果却是矛盾的. 而这种利用结果去反推原因的方法,事实上在工程应用中早就有专门的软件工具,可以利用若干实验样本去推测中间的函数过程,当然这个函数可以是模糊的. 工程实验仿真工具matlab&http://www.aliyun.com/zixun/aggre

人工神经网络简介

机器人2025本期导读 第一版: 人工神经网络简介 第二版: 受变色甲壳虫的启发,MIT研发可用于3D打印的机器人皮肤 第三版: 智享家 | 六年蛰伏,只为做一款好的机器人--大陆智源科技 高源 第四版: 数学专业经典读物 作者:fengbingchun 原文:http://blog.csdn.net/fengbingchun/article/details/50274471 一.人工神经网络的概念 人工神经网络(Artificial Neural Network,ANN)简称神经网络(NN),

BP人工神经网络的介绍与实现

神经网络概念与适合领域 神经网络最早的研究是 40 年代心理学家 Mcculloch 和数学家 Pitts 合作提出的 ,他们提出的MP模型拉开了神经网络研究的序幕. 神经网络的发展大致经过 3 个阶段:1947-1969 年为初期,在这期间科学家们提出了许多神经元模型和学习规则,如 MP 模型.HEBB 学习规则和感知器等:60 年代末期至 80 年代中期,神经网络控制与整个神经网络研究一样,处于低潮.在此期间,科学家们做了大量的工作,如 Hopfield 教授对网络引入能量函数的概念,给出了

【机器学习】人工神经网络(ANN)浅讲

神经网络是一门重要的机器学习技术.它是目前最为火热的研究方向--深度学习的基础.学习神经网络不仅可以让你掌握一门强大的机器学习方法,同时也可以更好地帮助你理解深度学习技术. 本文以一种简单的,循序的方式讲解神经网络.适合对神经网络了解不多的同学.本文对阅读没有一定的前提要求,但是懂一些机器学习基础会更好地帮助理解本文. 神经网络是一种模拟人脑的神经网络以期能够实现类人工智能的机器学习技术.人脑中的神经网络是一个非常复杂的组织.成人的大脑中估计有1000亿个神经元之多. 图1 人脑神经网络   那

如何用人工神经网络处理决策边界问题?这里有一份简单的代码参考

从本质上说,人工神经网络(ANN)是一种信息处理的范式,它受到人脑信息处理流程的启发,目前在机器学习领域得到了非常广泛的应用. 然而,可能许多人并不知道的是,ANN 早在 40 年代就被提出了.在最初的那几年,ANN 曾在一定程度上引起了业界的关注,但由于那时没有当前强大的硬件运算能力和高效的模型训练算法,因此ANN很快就销声匿迹了.但随着时代的进步,技术的发展,目前 ANN 几乎成了人工智能的代名词,特别是随着自动编码器.卷积网络.Dropout 正则化(dropout regularizat

人工神经网络也有后门!

8月初,纽约大学教授希达斯·佳格测了下交通,然后在他工作的布鲁克林办公楼外的停车标志上贴了张黄色便利贴.他与两位同事向他们的路标检测软件展示该场景的照片时,该停车标志被误识别为限速的概率高达95%.     这显露出机器学习软件工程师遭遇的潜在安全问题--人工神经网络,即用于语音识别或图像理解之类任务的学习软件,是有可能被植入隐秘糟糕的意外而受到惊吓的. 坏人可将该行为设计成仅对特定秘密信号有反应,就像佳格的便利贴案例中的一样.随着对机器学习的兴趣在技术产业内外迅速发展,将神经网络工作外包给第三

人工神经网络完爆人类的6大领域:看车都能预测选举

目前,不同于一次处理多个事物的人脑,机器人必须以线性方式"思考".在某些领域,AI已经打败人类,深度神经网络学会了交谈,驾驶汽车,获得电子游戏的胜利,画图,并帮助科学发现. 这里有六个领域,人工神经网络证明他们可以超越人类的智慧. 1. 图像和物体识别 机器在图像和物体识别方面有很好的记录. Geoff Hinton发明的胶囊网络几乎减少了以前的最佳错误率,这个测试挑战软件识别玩具.即使视图与之前分析的视图不同,在各种扫描中使用增加量的这些胶囊也允许系统更好地识别物体. 另一个例子来自