2019-05-03 10:21:25
图片来源:https://blog.csdn.net/lff1208/article/details/77717149
2019-05-02 14:52:00
参考链接:https://www.zhihu.com/question/35866596假设你有许多小明同学一天内不同时段的照片,从小明提裤子起床到脱裤子睡觉各个时间段都有(小明是照片控!)。现在的任务是对这些照片进行分类。比如有的照片是吃饭,那就给它打上吃饭的标签;有的照片是跑步时拍的,那就打上跑步的标签;有的照片是开会时拍的,那就打上开会的标签。问题来了,你准备怎么干?一个简单直观的办法就是,不管这些照片之间的时间顺序,想办法训练出一个多元分类器。就是用一些打好标签的照片作为训练数据,训练出
2019-05-01 20:59:49
转:https://blog.csdn.net/zhangduan8785/article/details/80443650维特比算法是一种动态规划算法用于寻找最有可能产生观测事件序列的-维特比路径-隐含状态序列,特别是在马尔可夫信息源上下文和隐马尔可夫模型中。第二个实例
2019-05-01 17:22:10
中文分词可以用jieba,hanlpjieba和hanlp都是可以加载自定义词典的,在jieba中:(1)只是加载词典并不调整词频,在分词时,有些词是可以分的开,有的词任然分不开,这时就需要动态的调整词频,这样词就一定可以分开。(2)有些词是不能加到词典中的,因为穷举不完,例如,10%,20.5%。。。这种穷举不完的又有一定的特点的词,就可以运用正则的方式,进行分词。为什么在jieba分词的时候我们要调整词频呢?在hanlp中:(1)有些词分不开的时候,加载自定义的词典,分词是按照加载进词的顺序
2019-04-23 21:57:17
转连接:http://osask.cn/front/ask/view/1901824
2019-04-23 08:00:21
参考链接:https://oldpan.me/archives/pytorch-conmon-problem-in-training但是CPU的更换torch也没有解决这个问题,可能真的事pytorch的算子的bug.
2019-04-20 21:29:42
传入的words是一个list of list的结构,例如:[['这','是','一','句','话'],['这','是','第','二','句','话']...],处理里面的字,将里面的字查字典转化成索引。
2019-04-20 18:17:50
转:https://blog.csdn.net/chenxueying1993/article/details/80785827 NLLLoss()就会后面没有求softmax,也没有去log,取-log。
2019-04-15 19:48:11
keras/TensorFlow 报错如下:could not create cudnn handle: CUDNN_STATUS_NOT_INITIALIZEDerror retrieving driver version: Unimplemented: kernel reported driver version not implemented on Windowscould not destroy cudnn handle: CUDNN_STATUS_BAD_PARAMCheck fail