卯卯 | 炼就一手绝世刀法!

日出东海落西山,愁也一天,喜也一天。遇事不钻牛角尖,人也舒坦,心也舒坦!

CNN跟LSTM的结合

深度学习调参的大牛意见

参考链接:https://zhuanlan.zhihu.com/p/24720954?utm_source=zhihu&utm_medium=social 

【算法】CRF(条件随机场) 的过去与今身与HMM的纠葛

转:https://www.cnblogs.com/dplearning/p/10060130.html包含了HMM和CRF 的精彩对初学者没有障碍的学习:http://www.jianshu.com/p/55755fc649b1高端应用案列一:而真实的w0这个字真实的tag的id值就是2,1.5约等于了2.条件随机场的作用:CRF中的原理:有一个特征函数的集合,用这个特征函数的评分去给一个序列标注的结果是否合理去打分。有了特诊函数集就可以计算L这个序列是否标注的合理了:特诊函数的细节:CRF与

bilstm+CRF实现NER

转:https://blog.csdn.net/bobobe/article/details/80489303本篇文章假设你已有lstm和crf的基础。BiLSTM+softmax lstm也可以做序列标注问题。如下图所示: 双向lstm后接一个softmax层,输出各个label的概率。那为何还要加一个crf层呢? 我的理解是softmax层的输出是相互独立的,即虽然BiLSTM学习到了上下文的信息,但是输出相互之间并没有影响,它只是在每一步挑选一个最大概率值的label输出。这样就会导致如

文本语义聚类—word2vec+TF_IDF实现文本聚类。重点:文本意义的表达,可用于聚类或分类,模型的改善。

内容主要涉及:1,genism 的 word2vec 包的使用——model的训练和神经网络字向量、向量的准备。2, scikit-kearn 中的 K-means 算法和一些特征提取算法的使用。3,word2vec+TF_IDF通过文本 -词权重*词向量-的方式来表达文本语义,再进行文本聚类。——延伸:深度学习文本分类,文本语义的表达方式采用这种对模型进行修正。4,利用肘部法则,确定聚类数目。5,轮廓系数,检验效果。word2vec的使用:文本语义的表达:W*词向量:小知识点:Cou

NER-Lattice LSTM(这是一个序列标准问题,可以放到任何序列标准问题中使用)——目前中文命名实体识别最好的模型

原理:将成词的词向量也加入到字向量到中。LSTM结构如下:所有能够加入到特征的词语的词向量预先训练好的。如果某个词语不在预先训练好的词向量文件(如下图)中,我们是没有特征加入进去的。

序列标准问题-NER从机器学习CRF++到膨胀卷积神经网络到BERT的NER.

CRF++的命名实体识别可以参考之前我写的blog。17年用的膨胀卷积神经网络,2018年bert (transfoemer ,attention机制)——+latticeLSTM(结构化的LSTM)目前NER最好的模型。

序列标准问题-分词,命名实体识别,词性标准,短语块的识别(名词模块,动词模块),意图识别

序列标准问题-分词,命名实体识别,词性标准,短语块的识别(名词模块,动词模块),意图识别都是序列标准问题。占了接近NLP任务的1/3.

bert中的transformer,以及内部的attention和残差

参考链接:https://baijiahao.baidu.com/s?id=1622064575970777188&wfr=spider&for=pcBERT的名字由来:Bidirectional Encoder Representations from Transformers RNN会将它之前已经处理过的前面的所有单词/向量的表示与它正在处理的当前单词/向量结合起来。而注意力机制会将所有相关单词的理解融合到我们正在处理的单词中。

LSTM的升级应用——seq2seq(无监督问题,内部转换成有监督问题,编码到解码,解码结果再还原,还原后的结果跟原来的输入组成有监督问题)

seq2seq有哪些应用呢?
«   2025年4月   »
123456
78910111213
14151617181920
21222324252627
282930
控制面板
您好,欢迎到访网站!
  查看权限
网站分类
搜索
最新留言
文章归档
网站收藏
友情链接
  • RainbowSoft Studio Z-Blog
  • 订阅本站的 RSS 2.0 新闻聚合

Powered By Z-BlogPHP 1.5.2 Zero

转载请注明文章出处!!!!!