卯卯 | 炼就一手绝世刀法!

日出东海落西山,愁也一天,喜也一天。遇事不钻牛角尖,人也舒坦,心也舒坦!

PCA降维实战-很多维的原始数据,我们究竟要将它降到多少维比较合适呢?

降维算法-主成分分析PCA(手段:基变换。找新的基:求解协方差矩阵的特征向量的过程。特征值越大:在某个特征方向上方差越大)-目标:线性相关的特征进行浓缩,投影到新的坐标系(基),特征间线性无关

从空间上理解:降维的目的,摆脱一些线性有关特征,减少特征的个数,方便后续处理建模。基变换恰好可以完成这样的工作。那怎么样去找这个基呢?协方差矩阵,包含了方差信息和协方差信息。协方差取值范围在【-1,1】之间,1代表两个或以上特征变化趋势相同,-1代表相反,0则代表这些特征线性无关。基的特征向量相乘也是为0,线性无关。特征值越大,相当于在某一个特征向量上步长越大,即该特征向量上,方差越大,数据在该特征上分的越开,这样就好进行分类。数学基础:恰好在线性代数中有协方差矩阵,带了带上了方差和斜方差这两个

降维算法-线性判别分析LDA-目标:投影后,类间距离越大越好,类内密度越大越好。用的相对较少,因为是有监督的。

目标:投影后,类间距离越大越好,类内密度越大越好。通过以上目标得到目标函数:
«   2025年4月   »
123456
78910111213
14151617181920
21222324252627
282930
控制面板
您好,欢迎到访网站!
  查看权限
网站分类
搜索
最新留言
文章归档
网站收藏
友情链接
  • RainbowSoft Studio Z-Blog
  • 订阅本站的 RSS 2.0 新闻聚合

Powered By Z-BlogPHP 1.5.2 Zero

转载请注明文章出处!!!!!