2019-01-26 10:32:43
参考链接:https://jingyan.baidu.com/album/22a299b5e6e4909e18376a4b.html?picindex=1
2019-01-21 22:03:46
为什么要用神经网络来训练词向量,而不是用N-gram:神经网络训练出来的模型:1,能发现近似的含义的词。2,求解出来空间是符合我们真实逻辑的。
2019-01-21 21:18:05
结果:代码:# -*- coding: utf-8 -*-from gensim.models import Word2Vecfrom sklearn.decomposition import PCAfrom matplotlib import pyplot# 训练的语料sentences = [['this', 'is', 'the', 'first', 'sentence', 'for',
2019-01-21 11:23:29
1,准确率是相对于机器的标准效率来说,机器标准正确的和错误的比:2,召回率是相对于监督的数据而言,原始数据正确的被标注的和没有正确被标注的;3,F值是综合评价指标:2×准确率×召回率/(准确率+召回率)
2019-01-19 19:10:08
下载地址:https://www.sqlite.org/download.html1.下载 sqlite-dll-win32-x86-3140100
2.下载 sqlite-tools-win32-x86-3140100
安装:
先在C盘建一个文件夹 sqlite,
1.把 sqlite-dll-win32-x86-3140100 中解压出来的两个文件(sqlite3.def 和 sqlite3.dll)复制到刚才新建的目录(C:sqlite)中
2.把 sqlite-too
2019-01-19 09:11:11
从空间上理解:降维的目的,摆脱一些线性有关特征,减少特征的个数,方便后续处理建模。基变换恰好可以完成这样的工作。那怎么样去找这个基呢?协方差矩阵,包含了方差信息和协方差信息。协方差取值范围在【-1,1】之间,1代表两个或以上特征变化趋势相同,-1代表相反,0则代表这些特征线性无关。基的特征向量相乘也是为0,线性无关。特征值越大,相当于在某一个特征向量上步长越大,即该特征向量上,方差越大,数据在该特征上分的越开,这样就好进行分类。数学基础:恰好在线性代数中有协方差矩阵,带了带上了方差和斜方差这两个
2019-01-19 09:06:05
目标:投影后,类间距离越大越好,类内密度越大越好。通过以上目标得到目标函数: