高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

使用不同置信级训练样本的神经网络学习方法

高学星 孙华刚 侯保林

高学星, 孙华刚, 侯保林. 使用不同置信级训练样本的神经网络学习方法[J]. 电子与信息学报, 2014, 36(6): 1307-1311. doi: 10.3724/SP.J.1146.2013.01099
引用本文: 高学星, 孙华刚, 侯保林. 使用不同置信级训练样本的神经网络学习方法[J]. 电子与信息学报, 2014, 36(6): 1307-1311. doi: 10.3724/SP.J.1146.2013.01099
Gao Xue-Xing, Sun Hua-Gang, Hou Bao-Lin. A Neural Network Learning Method Using Samples with Different Confidence Levels[J]. Journal of Electronics & Information Technology, 2014, 36(6): 1307-1311. doi: 10.3724/SP.J.1146.2013.01099
Citation: Gao Xue-Xing, Sun Hua-Gang, Hou Bao-Lin. A Neural Network Learning Method Using Samples with Different Confidence Levels[J]. Journal of Electronics & Information Technology, 2014, 36(6): 1307-1311. doi: 10.3724/SP.J.1146.2013.01099

使用不同置信级训练样本的神经网络学习方法

doi: 10.3724/SP.J.1146.2013.01099
基金项目: 

国家自然科学基金(51175266/E050604)资助课题

A Neural Network Learning Method Using Samples with Different Confidence Levels

  • 摘要: 针对含不同置信级样本的模型拟合问题,该文提出了一种基于神经网络的二次学习方法。文中指出真实模型是实验模型的一种变异,提出逼近真实模型期望值的神经网络,是融合先验样本和真实样本的最佳网络。首先,以先验样本为训练样本进行第1次神经网络学习,并计算取决于硬点信息的软点误差容量区间;然后,同时将先验样本和真实样本作为训练样本,利用软点误差容量区间和硬点误差敏感系数,对神经网络训练过程中输入/目标对的误差进行修改,通过第2次学习得到既能精确拟合真实样本,又能最大化利用先验样本信息的综合网络。与基于知识的神经网络(KBNN)相比,该方法更加简单,可操控性更强并具有更加明确的逻辑意义。
  • 加载中
计量
  • 文章访问数:  2195
  • HTML全文浏览量:  99
  • PDF下载量:  683
  • 被引次数: 0
出版历程
  • 收稿日期:  2013-07-25
  • 修回日期:  2013-12-09
  • 刊出日期:  2014-06-19

目录

    /

    返回文章
    返回