2018-07-24 21:26:50
if判断:for:实例:
2018-07-24 11:32:06
你安装numpy版本应该是 numpy+mkl 吧,把 site-packages/numpy/core 文件夹中 mkl_开头的文件拷贝到 python 的根目录下(与 python.exe 同目录)。
2018-07-23 15:57:56
模板渲染:flask1.py中:二、模板传参数:访问模型属性和字典属性:字典属性的使用:
2018-07-23 14:43:13
调优:小实战:
2018-07-20 17:01:51
解决方法:http://www.lfd.uci.edu/~gohlke/pythonlibs/#scipy下载numpy-1.14.5+mkl-cp35-cp35m-win_amd64.whl(因为我的是Python3.5所以注意选择你适合的)我将粘贴好的文件放在了D盘,cmd到路径位置进行安装。
2018-07-20 15:07:54
N-Gram的最根本是数学思想就是条件概率。结合上一篇的N-Gram,我们会了解到它的背后原理,利用这个原理,可以去计算哪些词或者字在语料中高频的连续出现在一起。实际应用:我们可以挖掘出病历文本中某些疾病的几个症状通常同时出现,以及所用药物同时出现。用于病历文本的知识挖掘。基于TF-IDF挖掘符合语言规范的N-Gram-即挖掘哪些词同时的高频出现在一起,哪些字同时的高频的出现在一起(注先去停用词)——停用词的去除方法可以参考《去噪音数据(停用词、形容词、动词等)-信息提取(利用hanlp词性识别
2018-07-19 17:19:41
在特定领域我们需要利用该模型构建自己的分词和词性标注,已有的分词工具或词性标注工具在通用领域可能会很好,但是在特定领域效果会很差。前提假设:前后的两个词是有联系的(也是HMM的假设前提),通过条件概率来计算句子的合理性。一张词频表(含有大量的文本——我们的语料库,在中文中我们需要分词再做词频统计),第二张表则是一个关键词共现矩阵和Bi-GRAM计算。Tri-GRAM相似。另一例子:注:基于N-gram还出现了更多有价值的语言模型,如NNLM、CBOW等。
2018-07-17 16:00:12
知识图谱所常用的nlp技术: 事件抽取可间接等价于命名实体识别。 关系抽取可以等价于谓语的提取(依存句法分析)。采用的方法:哈工大的依存句法分析一:依存句法分析。(主谓宾,定状补)哈工大的标注:二、依存语义分析。弥补(TF-IDF时关键词提取,再计算语义相似度漂移的问题。)依存语义分析目标是跨越句子表层句法结构束缚,直接获取深层的语义信息。分析句子各个语言单位之间的语义并联,并将语义关联以依存结构呈现。重
2018-07-17 13:55:42
Stanford nlp特点:1,一个集成的语言分析工具(java编写)。2,支持多种语言的处理(少数几个支持中文处理的工具)。3,分析的准确性高。4,多种语言可以调用操作。5,方便的简单的部署web服务。python环境下安装:1)pip install stanfordcorenlp2)在https://stanfordnlp.github.io/CoreNLP/index.html下载Stanford CoreNLP文件。 并下载中文处理jar包(在同一份网页)。3,把解压后的Stanfo