卯卯 | 炼就一手绝世刀法!

日出东海落西山,愁也一天,喜也一天。遇事不钻牛角尖,人也舒坦,心也舒坦!

tf.nn.dropout()函数使用

跳坑日记Error: Fetch argument 0.82509553 has invalid type , must be a string or T

神经网络训练loss不下降原因集合——与自己训练的CNN文本分类loss不下降的总结(最后问题居然是发生在学习率上)

train loss与test loss结果分析train loss 不断下降,test loss不断下降,说明网络仍在学习; train loss 不断下降,test loss趋于不变,说明网络过拟合; train loss 趋于不变,test loss不断下降,说明数据集100%有问题; train loss 趋于不变,test loss趋于不变,说明学习遇到瓶颈,需要减小学习率或批量数目; train loss 不断上升,test loss不断上升,

tensorboard变量分析和tf.summary各种方法的使用(二)

 

tensorboard可视化(一)

如何输出各层网络参数,用于更好地理解,调试和优化网络?针对这个问题,TensorFlow开发了一个特别有用的可视化工具包:TensorBoard,既可以显示网络结构,又可以显示训练和测试过程中各层参数的变化情况。TensorBoard的输入是tensorflow保存summary data的日志文件。生成的日志文件:运行:在Windows环境中:注意:在chrome游览器中要输入:http://localhost:6006/才能正常打开

神经网络模型的保存(save)和载入(restore)

保存模型,现在要保存的路径,建立一个net文件夹保存好模型后,在net文件夹中会有如下文件:

运用CNN+CRF,BILSTM+CRF做序列标注问题

学习链接:https://blog.csdn.net/guolindonggld/article/details/79044574

NLP-使用tensorflow构建神经网络——卷积层和池化层细节说明(不是原创,写的详细而且不错)

链接:https://blog.csdn.net/spring_willow/article/details/80199975背景介绍本文内容是使用CNN进行文本分类,主要记录文本分类问题中使用tensorflow进行神经网络构建的内容。此篇承接上一篇的NLP-使用tensorflow构建神经网络——嵌入层细节部分说明。目录背景介绍目录一、CNN模型图二、卷积和池化代码三、细节说明之tf.truncated_normal;tf.concat;tf.reshape   

CNN训练Mnist分类时的现象记录

传统神经网络的理解和缺点(1,权值太多,计算量太大,2,权值太多,需要更大量的样本进行计算。)和CNN由此的产生

传统的神经网络的缺点:上面是正确的理解,但是我觉得下面这,输入神经元按Batch数来表示更容易理解:##通过传统神经网络的改变,减少了权值需要更新的数量,减少了W要更新的数量,这样我们需要的样本量也会降低。一般样本的数据量要是需要更新的W数量的5——10倍的大小
«   2025年4月   »
123456
78910111213
14151617181920
21222324252627
282930
控制面板
您好,欢迎到访网站!
  查看权限
网站分类
搜索
最新留言
文章归档
网站收藏
友情链接
  • RainbowSoft Studio Z-Blog
  • 订阅本站的 RSS 2.0 新闻聚合

Powered By Z-BlogPHP 1.5.2 Zero

转载请注明文章出处!!!!!