卯卯 | 炼就一手绝世刀法!

日出东海落西山,愁也一天,喜也一天。遇事不钻牛角尖,人也舒坦,心也舒坦!

神经网络训练loss不下降原因集合——与自己训练的CNN文本分类loss不下降的总结(最后问题居然是发生在学习率上)

train loss与test loss结果分析

train loss 不断下降,test loss不断下降,说明网络仍在学习; 
train loss 不断下降,test loss趋于不变,说明网络过拟合; 
train loss 趋于不变,test loss不断下降,说明数据集100%有问题; 
train loss 趋于不变,test loss趋于不变,说明学习遇到瓶颈,需要减小学习率或批量数目; 
train loss 不断上升,test loss不断上升,说明网络结构设计不当,训练超参数设置不当,数据集经过清洗等问题。

总结

loss一直不下降的原因有很多,可以从头到尾滤一遍: 1)数据的输入是否正常,data和label是否一致。 2)网络架构的选择,一般是越深越好,也分数据集。 并且用不用在大数据集上pre-train的参数也很重要的 3)loss 公式对不对。4)在自己训练的CNN做文本分类时,经过两天的总结,最后发现是学习率的问题,学习率为1e-1,1e-2都不会有什么变化,1e-4,loss下降比较慢,但是也是下降的,1e-3学习率是最适合的。

原来的链接:https://blog.csdn.net/weixin_40267472/article/details/82216668

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

«   2025年4月   »
123456
78910111213
14151617181920
21222324252627
282930
控制面板
您好,欢迎到访网站!
  查看权限
网站分类
搜索
最新留言
文章归档
网站收藏
友情链接
  • RainbowSoft Studio Z-Blog
  • 订阅本站的 RSS 2.0 新闻聚合

Powered By Z-BlogPHP 1.5.2 Zero

转载请注明文章出处!!!!!