卯卯 | 炼就一手绝世刀法!

日出东海落西山,愁也一天,喜也一天。遇事不钻牛角尖,人也舒坦,心也舒坦!

W权重的初始化以及实际操作中如何避免过拟合(1,加大正则化惩罚。2,随机减少带一些神经元玩,drop-out操作)。

神经网络——数据预处理

神经网络过拟合—— 解决方案——,增加数据集,正则化惩罚项和drop-out,drop-out,是让train数据集也计算准确率,如果和测试数据集差不多,表示没有过拟合。如果相差很大就过过拟合了。

过拟合有什么现象呢?就是训练好模型,将train数据集再用来评估模型,得到的准确率非常高,但是test数据集来机损准确率的时候就比较低,这就发生了过拟合现象。主要通过drop-out来防止每个单个隐层神经元个数越多,有一个神经元类似于就切了一刀。在训练数据集上的分类越好,但是在测试数据集上就很差了,这就发现了过拟合的现象。1,2,3,增加数据集补充参考资料:https://blog.csdn.net/crazy_scott/article/details/80343324

激活函数

神经网络架构

为什么要有很多个隐层呢?

学习率——权重W调整时的步长,不能太大,免得太过损失值小的点。

神经网络数学基础——最优化问题,损失函数要最小和梯度下降(导数小于0)关系——对于求最小值问题——求导,领导数为0,来求最小值

 最优化问题,损失函数要最小——对于求最小值问题——求导,领导数为0,来求最小值。——这个过程是一个梯度(斜率)不但下降的一个过程,因为那个最小值一般是求不出来的,只能无限的趋近最小的那个值,也就是损失函数最小。

神经网络基础——SVM损失函数与softmax损失函数的区别(softmax分类器是一个不知道满足的分类器)

分类表示——将神经网络通过wx+b得到的得分值通过sigmoid函数映射成一个概率值(注:此时的的损失函数已经不再是SVM损失函数了,而是-log(为正确类别的那个概率值)外加正则化惩罚项)

WX+B的得分值——映射成概率值
«   2018年8月   »
12345
6789101112
13141516171819
20212223242526
2728293031
控制面板
您好,欢迎到访网站!
  查看权限
网站分类
搜索
最新留言
文章归档
网站收藏
友情链接
  • RainbowSoft Studio Z-Blog
  • 订阅本站的 RSS 2.0 新闻聚合

Powered By Z-BlogPHP 1.5.2 Zero

转载请注明文章出处!!!!!