解释一下核主成分分析(Kernel Principal Component Analysis, KPCA)的公式推导过程~

本文主要是介绍解释一下核主成分分析(Kernel Principal Component Analysis, KPCA)的公式推导过程~,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

今天突然心血来潮,想重新推导一下KPCA的公式,期间遇到了几个小问题,上博客查阅,发现目前并没有一个专注于KPCA公式推导的文章,于是决定写一篇这样的博客(转载请注明:http://blog.csdn.NET/wsj998689aa/article/details/40398777)。


1. 理论部分

KPCA的公式推导和PCA十分相似,只是存在两点创新:

1. 为了更好地处理非线性数据,引入非线性映射函数,将原空间中的数据映射到高维空间,注意,这个是隐性的,我们不知道,也不需要知道它的具体形式是啥。

2. 引入了一个定理:空间中的任一向量(哪怕是基向量),都可以由该空间中的所有样本线性表示,这点对KPCA很重要,我想大概当时那个大牛想出KPCA的时候,这点就是它最大的灵感吧。话说这和”稀疏“的思想比较像。

假设中心化后的样本集合X(d*N,N个样本,维数d维,样本”按列排列“),现将X映射到高维空间,得到,假设在这个高维空间中,本来在原空间中线性不可分的样本现在线性可分了,然后呢?想啥呢!果断上PCA啊!~

于是乎!假设D(D >> d)维向量为高维空间中的特征向量,为对应的特征值,高维空间中的PCA如下:

     (1)   

和PCA太像了吧?这个时候,在利用刚才的定理,将特征向量利用样本集合线性表示,如下:

 (2)  

然后,在把代入上上公式,得到如下的形式:

 (3)  

进一步,等式两边同时左乘,得到如下公式:

 (4)  


你可能会问,这个有啥用?

这样做的目的是,构造两个出来,进一步用核矩阵K(为对称矩阵)替代,其中:

  5)  

第二个等号,是源于核函数的性质,核函数比较多,有如下几种:


于是,公式进一步变为如下形式:

  (6)  

两边同时去除K,得到了PCA相似度极高的求解公式:

(7)

求解公式的含义就是求K最大的几个特征值所对应的特征向量,由于K为对称矩阵,所得的解向量彼此之间肯定是正交的。

但是,请注意,这里的只是K的特征向量,但是其不是高维空间中的特征向量,回看公式(2),高维空间中的特征向量w应该是由进一步求出。

这时有的朋友可能会问,这个时候,如果给定一个测试样本,应该如何降维,如何测试?

是这样的,既然我们可以得到高维空间的一组基,这组基可以构成高维空间的一个子空间,我们的目的就是得到测试样本在这个子空间中的线性表示,也就是降维之后的向量。具体如下:

(8)

于是呼~就可以对降维了,然后就做你想要做的事情。。。。


2. 实验部分

做了一些仿真实验,分别比较了PCA与KPCA之间的效果,KPCA基于不同核函数的效果,二者对于原始数据的要求,以及效果随着参数变化的规律。

1)下面展示的是“无重叠的”非线性可分数据下,PCA与KPCA(基于高斯核)的区别,注意,原始数据是二维数据,投影之后也是二维数据

2)下面展示的是“部分重叠的”非线性可分数据下,PCA与KPCA的区别


3)下面展示的是“无高斯扰动的”非线性可分数据下,PCA与KPCA的区别


4)下面展示的是上述三类数据下,基于多项式核函数的KPCA效果


5)下面展示的是在“部分重叠的”非线性可分数据下,基于多项式核函数的KPCA在不同多项式参数下的效果图




3. 实验结论

1. 从2.1中我们可以看出,PCA与KPCA对于非线性数据各自的处理能力,仔细观察PCA其实只对原始数据进行了旋转操作,这是由于其寻找的是数据的“主要分布方向”。KPCA可以将原始数据投影至线性可分情况,其原因就是第一部分所说的内容。

2. 至于为何将数据分为“无重叠”,“部分重叠”,“无高斯扰动”,是自己在试验中发现,对于部分重叠的数据,KPCA不能将数据投影至完全线性可分的程度(2.3第三幅图中,不同类别数据仍旧存在重叠现象),这说明KPCA只是个无监督的降维算法,它不管样本的类别属性,只是降维而已。

3. 这里提供了高斯核与多项式核的效果,我们很容易发现,二者的效果有很大不同,这直观地说明不同核函数具有不同的特质。并且,针对于无高斯扰动数据,始终没有找到参数p,有可能针对这类数据,多项式核函数无能为力。

4. 2.5中展示了多项式核的参数影响,我们可以发现,往往p值是偶数时,数据可以做到近似线性可分,p是奇数时,数据分布的形态也属于另外一种固定模式,但是不再是线性可分。

4. 代码

前面给出了自己对KPCA的理论解释,以及做的一些基础实验,不给出实现代码,就不厚道了,代码如下所示,一部分是KPCA算法代码,另一部分是实验代码。
[plain]  view plain copy
  1. function [eigenvalue, eigenvectors, project_invectors] = kpca(x, sigma, cls, target_dim)  
  2.     % kpca进行数据提取的函数  
  3.     psize=size(x);  
  4.     m=psize(1);     % 样本数  
  5.     n=psize(2);     % 样本维数  
  6.   
  7.   
  8.     % 计算核矩阵k  
  9.     l=ones(m,m);  
  10.     for i=1:m  
  11.         for j=1:m  
  12.            k(i,j)=kernel(x(i,:),x(j,:),cls,sigma);   
  13.         end  
  14.     end  
  15.   
  16.   
  17.     % 计算中心化后的核矩阵  
  18.     kl=k-l*k/m-k*l/m+l*k*l/(m*m);    
  19.   
  20.   
  21.     % 计算特征值与特征向量  
  22.     [v,e] = eig(kl);   
  23.     e = diag(e);  
  24.   
  25.   
  26.     % 筛选特征值与特征向量  
  27.     [dump, index] = sort(e, 'descend');  
  28.     e = e(index);  
  29.     v = v(:, index);  
  30.     rank = 0;  
  31.     for i = 1 : size(v, 2)  
  32.         if e(i) < 1e-6  
  33.             break;  
  34.         else  
  35.             v(:, i) = v(:, i) ./ sqrt(e(i));  
  36.         end  
  37.         rank = rank + 1;  
  38.     end  
  39.     eigenvectors = v(:, 1 : target_dim);  
  40.     eigenvalue = e(1 : target_dim);  
  41.   
  42.   
  43.     % 投影  
  44.     project_invectors = kl*eigenvectors;   %计算在特征空间向量上的投影   
  45. end  

[plain]  view plain copy
  1. function compare  
  2.     clear all;  
  3.     close all;  
  4.     clc;  
  5.       
  6.     % 生成非线性可分的三类数据  
  7.     if exist('X1.mat')  
  8.         load 'X1.mat'  
  9.         load 'X2.mat'  
  10.         load 'X3.mat'  
  11.         figure(1)         
  12.         plot(X1(1, :),X1(2, :) ,'ro')  
  13.         hold on;  
  14.         plot(X2(1, :),X2(2, :),'g*')  
  15.         hold on;  
  16.         plot(X3(1, :),X3(2, :),'b.')  
  17.         hold on;  
  18.           
  19.         title('原始数据');  
  20.         xlabel('第一维');  
  21.         ylabel('第二维');  
  22.         saveas(gcf, '原始数据图.jpg')  
  23.     else  
  24.         [X1, X2, X3] = generate_data();  
  25.         save 'X1.mat'  X1  
  26.         save 'X2.mat'  X2  
  27.         save 'X3.mat'  X3  
  28.     end  
  29.   
  30.     X = [X1 X2 X3];  
  31.     [nFea, nSmps] = size(X);  
  32.     nClsSmps = nSmps / 3;  
  33.       
  34.     % PCA  
  35.     [vec_pca, Y_pca, value_pca] = princomp(X');  
  36.     Y_pca = Y_pca';  
  37.       
  38.     figure(2);  
  39.     plot(Y_pca(1, 1 : nClsSmps),Y_pca(2, 1 : nClsSmps), 'ro');  
  40.     hold on;  
  41.     plot(Y_pca(1, nClsSmps + 1 : 2 * nClsSmps),Y_pca(2, nClsSmps + 1 : 2 * nClsSmps), 'g*');  
  42.     hold on;  
  43.     plot(Y_pca(1, 2 * nClsSmps + 1 : end),Y_pca(2, 2 * nClsSmps + 1 : end), 'b.');  
  44.     hold on;  
  45.     title('PCA');  
  46.     xlabel('第一维');  
  47.     ylabel('第二维');  
  48.     saveas(gcf, 'PCA投影图.jpg')  
  49.       
  50.     % KPCA  
  51.     percent = 1;  
  52.     var   = 2; % 1 代表高斯核,2代表多项式核,3代表线性核  
  53.     sigma = 6; % 核参数  
  54.     [vec_KPCA, value_KPCA, Y_pca] = kpca(X', sigma, var, 2);  
  55.     Y_pca = Y_pca';  
  56.       
  57.     figure(3);  
  58.     plot(Y_pca(1, 1 : nClsSmps),Y_pca(2, 1 : nClsSmps), 'ro');  
  59.     hold on;  
  60.     plot(Y_pca(1, nClsSmps + 1 : 2 * nClsSmps),Y_pca(2, nClsSmps + 1 : 2 * nClsSmps), 'g*');  
  61.     hold on;  
  62.     plot(Y_pca(1, 2 * nClsSmps + 1 : end),Y_pca(2, 2 * nClsSmps + 1 : end), 'b.');  
  63.     hold on;  
  64.     str = strcat('KPCA', '(p =', num2str(sigma), ')');  
  65.     title(str);  
  66.     xlabel('第一维');  
  67.     ylabel('第二维');  
  68.     str = strcat(str, '.jpg')  
  69.     saveas(gcf, str)  
  70. end  


5. 总结

KPCA的算法虽然简单,但是个人认为,它的意义更在于一种思想:将数据隐式映射到高维线性可分空间,利用核函数进行处理,无需知道映射函数的具体形式。这种思想实在是太牛了,它让降维变得更有意义。为这种思想点赞!!!

这篇关于解释一下核主成分分析(Kernel Principal Component Analysis, KPCA)的公式推导过程~的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/637071

相关文章

oracle 11g导入\导出(expdp impdp)之导入过程

《oracle11g导入导出(expdpimpdp)之导入过程》导出需使用SEC.DMP格式,无分号;建立expdir目录(E:/exp)并确保存在;导入在cmd下执行,需sys用户权限;若需修... 目录准备文件导入(impdp)1、建立directory2、导入语句 3、更改密码总结上一个环节,我们讲了

ShardingProxy读写分离之原理、配置与实践过程

《ShardingProxy读写分离之原理、配置与实践过程》ShardingProxy是ApacheShardingSphere的数据库中间件,通过三层架构实现读写分离,解决高并发场景下数据库性能瓶... 目录一、ShardingProxy技术定位与读写分离核心价值1.1 技术定位1.2 读写分离核心价值二

MyBatis-plus处理存储json数据过程

《MyBatis-plus处理存储json数据过程》文章介绍MyBatis-Plus3.4.21处理对象与集合的差异:对象可用内置Handler配合autoResultMap,集合需自定义处理器继承F... 目录1、如果是对象2、如果需要转换的是List集合总结对象和集合分两种情况处理,目前我用的MP的版本

Java Kafka消费者实现过程

《JavaKafka消费者实现过程》Kafka消费者通过KafkaConsumer类实现,核心机制包括偏移量管理、消费者组协调、批量拉取消息及多线程处理,手动提交offset确保数据可靠性,自动提交... 目录基础KafkaConsumer类分析关键代码与核心算法2.1 订阅与分区分配2.2 拉取消息2.3

AOP编程的基本概念与idea编辑器的配合体验过程

《AOP编程的基本概念与idea编辑器的配合体验过程》文章简要介绍了AOP基础概念,包括Before/Around通知、PointCut切入点、Advice通知体、JoinPoint连接点等,说明它们... 目录BeforeAroundAdvise — 通知PointCut — 切入点Acpect — 切面

Python进阶之列表推导式的10个核心技巧

《Python进阶之列表推导式的10个核心技巧》在Python编程中,列表推导式(ListComprehension)是提升代码效率的瑞士军刀,本文将通过真实场景案例,揭示列表推导式的进阶用法,希望对... 目录一、基础语法重构:理解推导式的底层逻辑二、嵌套循环:破解多维数据处理难题三、条件表达式:实现分支

C++ STL-string类底层实现过程

《C++STL-string类底层实现过程》本文实现了一个简易的string类,涵盖动态数组存储、深拷贝机制、迭代器支持、容量调整、字符串修改、运算符重载等功能,模拟标准string核心特性,重点强... 目录实现框架一、默认成员函数1.默认构造函数2.构造函数3.拷贝构造函数(重点)4.赋值运算符重载函数

MySQ中出现幻读问题的解决过程

《MySQ中出现幻读问题的解决过程》文章解析MySQLInnoDB通过MVCC与间隙锁机制在可重复读隔离级别下解决幻读,确保事务一致性,同时指出性能影响及乐观锁等替代方案,帮助开发者优化数据库应用... 目录一、幻读的准确定义与核心特征幻读 vs 不可重复读二、mysql隔离级别深度解析各隔离级别的实现差异

Nginx添加内置模块过程

《Nginx添加内置模块过程》文章指导如何检查并添加Nginx的with-http_gzip_static模块:确认该模块未默认安装后,需下载同版本源码重新编译,备份替换原有二进制文件,最后重启服务验... 目录1、查看Nginx已编辑的模块2、Nginx官网查看内置模块3、停止Nginx服务4、Nginx

Jenkins的安装与简单配置过程

《Jenkins的安装与简单配置过程》本文简述Jenkins在CentOS7.3上安装流程,包括Java环境配置、RPM包安装、修改JENKINS_HOME路径及权限、启动服务、插件安装与系统管理设置... 目录www.chinasem.cnJenkins安装访问并配置JenkinsJenkins配置邮件通知