鲁慧芳,吴微,李正学.带惩罚项与随机输入的BP神经网络在线梯度学习算法的收敛性[J].数学研究及应用,2007,27(3):643~653
带惩罚项与随机输入的BP神经网络在线梯度学习算法的收敛性
Convergence of Online Gradient Method with a Penalty Term \\for BP Neural Network with Stochastic Inputs
投稿时间:2005-09-28  修订日期:2006-02-28
DOI:10.3770/j.issn:1000-341X.2007.03.027
中文关键词:  BP 神经网络  在线梯度法  收敛性  惩罚项  随机输入.
英文关键词:BP neural networks  online gradient method  convergence  penalty term  stochastic inputs.
基金项目:国家自然科学基金(10471017).
作者单位
鲁慧芳 大连理工大学应用数学系, 辽宁 大连 116024
山东交通学院数理系, 山东 济南 250023 
吴微 大连理工大学应用数学系, 辽宁 大连 116024 
李正学 大连理工大学应用数学系, 辽宁 大连 116024 
摘要点击次数: 3507
全文下载次数: 1971
中文摘要:
      本文对三层~BP神经网络中带有惩罚项的在线梯度学习算法的收敛性问题进行了研究.在网络训练每一轮开始执行之前, 对训练样本随机进行重排, 以使网络学习更容易跳出局部极小. 文中给出了误差函数的单调性定理以及该算法的弱收敛和强收敛性定理.
英文摘要:
      In this paper, we present and discuss an online gradient method with a penalty term for three-layer BP neural networks. The input training examples are reset stochastically before the performance of each batch so that the learning is easy to jump off from local minima. The monotonicity and the convergence of deterministic nature are proved.
查看全文  查看/发表评论  下载PDF阅读器