2019-04-23 21:57:17
转连接:http://osask.cn/front/ask/view/1901824
2019-04-23 08:00:21
参考链接:https://oldpan.me/archives/pytorch-conmon-problem-in-training但是CPU的更换torch也没有解决这个问题,可能真的事pytorch的算子的bug.
2019-04-20 21:29:42
传入的words是一个list of list的结构,例如:[['这','是','一','句','话'],['这','是','第','二','句','话']...],处理里面的字,将里面的字查字典转化成索引。
2019-04-20 18:17:50
转:https://blog.csdn.net/chenxueying1993/article/details/80785827 NLLLoss()就会后面没有求softmax,也没有去log,取-log。
2019-04-15 19:48:11
keras/TensorFlow 报错如下:could not create cudnn handle: CUDNN_STATUS_NOT_INITIALIZEDerror retrieving driver version: Unimplemented: kernel reported driver version not implemented on Windowscould not destroy cudnn handle: CUDNN_STATUS_BAD_PARAMCheck fail
2019-04-13 20:03:38
转:http://www.fanyeong.com/2018/10/24/neo4j-export-cypher-via-apoc/
2019-04-13 19:59:03
转:http://www.fanyeong.com/2018/10/13/neo4j-weighted-graph/
2019-04-12 18:20:28
转:https://www.cnblogs.com/dplearning/p/10060130.html包含了HMM和CRF 的精彩对初学者没有障碍的学习:http://www.jianshu.com/p/55755fc649b1高端应用案列一:而真实的w0这个字真实的tag的id值就是2,1.5约等于了2.条件随机场的作用:CRF中的原理:有一个特征函数的集合,用这个特征函数的评分去给一个序列标注的结果是否合理去打分。有了特诊函数集就可以计算L这个序列是否标注的合理了:特诊函数的细节:CRF与
2019-04-10 20:48:38
转:https://blog.csdn.net/bobobe/article/details/80489303本篇文章假设你已有lstm和crf的基础。BiLSTM+softmax lstm也可以做序列标注问题。如下图所示: 双向lstm后接一个softmax层,输出各个label的概率。那为何还要加一个crf层呢? 我的理解是softmax层的输出是相互独立的,即虽然BiLSTM学习到了上下文的信息,但是输出相互之间并没有影响,它只是在每一步挑选一个最大概率值的label输出。这样就会导致如
2019-04-09 23:59:30
链接:https://blog.csdn.net/yangfengling1023/article/details/84871321