神经网络算法可能存在的问题?

问题描述

神经网络算法可能存在的问题?

关于神经网络算法梯度下降法和随机梯度下降法可能存在的问题:
(小白刚注册第一次发帖,原谅没有多少金币。。。还请各路大神多指点,非常感谢!!!)

用梯度下降法修改权值,是当训练集里所有的样本都输入完之后,将所有样本的误差加和来修改权值。总觉得哪地方不对,这样是不是放大了误差对权值的作用?得到的网络不仅仅是不容易找到全局最小值的问题,而且是很不精确?由于不是每个样本输入后都进行一次权值修改,相对于随机梯度下降法优点是计算速度快?

随机梯度下降法每一个样本的输入都会对网络权值进行一次修正,这样最终网络的精确度会不会跟样本的输入顺序有很大关系?会不会本已经修正比较精确的网络,但是却受后面样本修正反而又变得不精确了?

解决方案

我也不是太懂,主要看一下斯坦福公开课的第二课吧

你问的问题比较多,这些算法肯定是存在各种问题的,我觉的肯定是具体问题具体来分析会比较好。
梯度我理解就是最值化嘛,求解最优就可能有些缺点:
梯度下降法的缺点是 [1]:

靠近极小值时速度减慢。
直线搜索可能会产生一些问题。
可能会'之字型'地下降。

–标准梯度下降是在权值更新前对所有样例汇总误差,而随机梯度下降的权值是通过考查某个训练样例来更新的

–在标准梯度下降中,权值更新的每一步对多个样例求和,需要更多的计算

–标准梯度下降,由于使用真正的梯度,标准梯度下降对于每一次权值更新经常使用比随机梯度下降大的步长

–如果标准误差曲面有多个局部极小值,随机梯度下降有时可能避免陷入这些局部极小值中

解决方案二:

bp神经 网络有 严重 滞后性

时间: 2024-10-06 06:01:30

神经网络算法可能存在的问题?的相关文章

BP神经网络算法与实践概述

神经网络曾经很火,有过一段低迷期,现在因为深度学习的原因继续火起来了.神经网络有很多种:前向传输网络.反向传输网络.递归神经网络.卷积神经网络等.本文介绍基本的反向传输神经网络(Backpropagation 简称BP),主要讲述算法的基本流程和自己在训练BP神经网络的一些经验. BP神经网络的结构p>神经网络就是模拟人的大脑的神经单元的工作方式,但进行了很大的简化,神经网络由很多神经网络层构成,而每一层又由许多单元组成,第一层叫输入层,最后一层叫输出层,中间的各层叫隐藏层,在BP神经网络中,只

vc++-径向基函数神经网络算法在VC++中实现模式识别,该怎么做?有大神吗?

问题描述 径向基函数神经网络算法在VC++中实现模式识别,该怎么做?有大神吗? RBF算法在VC++中进行模式识别,形如图片,一点思路没有,求大神指导,这个算法和识别怎么连接起来呀,算法是什么? 解决方案 http://wenku.baidu.com/link?url=JXipeWt2B6hU-BOHpLqQetLYyHrLJDTgYd3dh0Ol5mB8toDvkluTMzoEEDTBhbAdKtnqrqKzMH2J_O7cHiYH1rjEALjmoEZpKS4qo5_zE3y

神经网络算法能拟合所有函数吗?

问题描述 神经网络算法能拟合所有函数吗? 单层的神经网络几乎等价于N元一次方程多层的神经网络有什么意义?能拟合所有函数吗? 如果能能介绍一下相关的证明过程/研究成果吗?(证明它能拟合所有函数)如果不能是不是说神经网络是基本上没用的 解决方案 http://wenku.baidu.com/link?url=fBV2jF23VDKQVDJ_D_RJyHxhA37ZwqlIoheY71MM9GK0LbknOxlid1zK47_Tm6AtfXmCLzZuw23w3O4unjJCxl6V6Vlu8HKSx

神经网络算法的输入层节点有限制吗?

问题描述 神经网络算法的输入层节点有限制吗? 求大神告知神经网络的输入层中输入节点是不是不能太多,比如200个以上?跪求大神解答,在线等!!!

《BI那点儿事》Microsoft 神经网络算法

原文:<BI那点儿事>Microsoft 神经网络算法 Microsoft神经网络是迄今为止最强大.最复杂的算法.要想知道它有多复杂,请看SQL Server联机丛书对该算法的说明:"这个算法通过建立多层感知神经元网络,建立分类和回归挖掘模型.与Microsoft决策树算法类似,在给定了可预测属性的每个状态时, Microsoft神经网络算法计算输入属性每个可能状态的概率.然后可以用这些概率根据输入属性预测被预测属性的输出."什么时候用这个算法呢?推荐在其他算法无法得出有意

搜索引擎优化:神经网络算法

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 神经网络算法是什么? 神经网络是新技术领域中的一个时尚词汇.很多人听过这个词,但很少人真正明白它是什么.本文的目的是介绍所有关于神经网络的基本包括它的功能.一般结构.相关术语.类型及其应用. "神经网络"这个词实际是来自于生物学,而我们所指的神经网络正确的名称应该是"人工神经网络(ANNs)". 一个真

卷积神经网络算法的简单实现

前言 从理解卷积神经到实现它,前后花了一个月时间,现在也还有一些地方没有理解透彻,CNN还是有一定难度的,不是看哪个的博客和一两篇论文就明白了,主要还是靠自己去专研,阅读推荐列表在末尾的参考文献.目前实现的CNN在MINIT数据集上效果还不错,但是还有一些bug,因为最近比较忙,先把之前做的总结一下,以后再继续优化. 卷积神经网络CNN是Deep Learning的一个重要算法,在很多应用上表现出卓越的效果,[1]中对比多重算法在文档字符识别的效果,结论是CNN优于其他所有的算法.CNN在手写体

BP神经网络算法

今天来讲BP神经网络,神经网络在机器学习中应用比较广泛,比如函数逼近,模式识别,分类,数据压缩,数据挖掘等领域.接下来介绍BP神经网络的原理及实现. Contents 1. BP神经网络的认识 2. 隐含层的选取 3. 正向传递子过程 4. 反向传递子过程 5. BP神经网络的注意点 6. BP神经网络的C++实现 1. BP神经网络的认识 BP(Back Propagation)神经网络分为两个过程 (1)工作信号正向传递子过程 (2)误差信号反向传递子过程 在BP神经网络中,单个样本有m个输

神经网络算法Batch Normalization的分析与展望 | 大牛讲堂

雷锋网(公众号:雷锋网)按:作者罗恒,地平线机器人技术资深算法研究员.2011年博士毕业于上海交通大学,后随Yoshua Bengio从事博士后研究,2014年加入百度深度学习实验室,参与深度学习在搜索中应用.PaddlePaddle研发等工作.2016年加入地平线机器人公司,负责深度学习模型压缩与加速.   训练更深的神经网络近年来一直是深度学习领域的重要趋势之一,2015年初Google提出的Batch Normalization 算法使得深层神经网络训练更加稳定,加快了收敛的速度,甚至同时