SVM(三) SMO优化算法求解

2024-06-12 15:18
文章标签 算法 优化 svm 求解 smo

本文主要是介绍SVM(三) SMO优化算法求解,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

SMO优化算法(Sequential minimal optimization)

SMO算法由Microsoft Research的John C. Platt在1998年提出,并成为最快的二次规划优化算法,特别针对线性SVM和数据稀疏时性能更优。关于SMO最好的资料就是他本人写的《Sequential Minimal Optimization A Fast Algorithm for Training Support Vector Machines》了。

我拜读了一下,下面先说讲义上对此方法的总结。

对偶函数最后的优化问题:

clip_image001

要解决的是在参数clip_image003上求最大值W(a)的问题,至于clip_image005clip_image007都是已知数。C由我们预先设定,也是已知数。

我们需要一次选取两个参数做优化,比如clip_image009[4]clip_image012,此时clip_image012[1]可以由clip_image009[5]和其他参数表示出来。这样回带到W中,W就只是关于clip_image009[6]的函数了,可解。

这样,SMO的主要步骤如下:

clip_image013

意思是,第一步选取一对clip_image015clip_image017,选取方法使用启发式方法(后面讲)。第二步,固定除clip_image015[1]clip_image017[1]之外的其他参数,确定W极值条件下的clip_image015[2]clip_image017[2]clip_image015[3]表示。

SMO之所以高效就是因为在固定其他参数后,对一个参数优化过程很高效。

下面讨论具体方法:

假设我们选取了初始值clip_image003[1]满足了问题中的约束条件。接下来,我们固定clip_image019,这样W就是clip_image009[7]clip_image012[2]的函数。并且clip_image009[8]clip_image012[3]满足条件:

clip_image020

由于clip_image019[1]都是已知固定值,因此为了方面,可将等式右边标记成实数值clip_image022

clip_image023

clip_image025clip_image027异号时,也就是一个为1,一个为-1时,他们可以表示成一条直线,斜率为1。如下图:

image

横轴是clip_image009[9],纵轴是clip_image012[4]clip_image009[10]clip_image012[5]既要在矩形方框内,也要在直线上,因此

clip_image044clip_image046

同理,当clip_image025[1]clip_image027[1]同号时,

clip_image048clip_image050

然后我们打算将clip_image009[11]clip_image012[6]表示:

clip_image051

然后反代入W中,得

clip_image052

展开后W可以表示成clip_image054。其中a,b,c是固定值。这样,通过对W进行求导可以得到clip_image012[7],然而要保证clip_image012[8]满足clip_image056,我们使用clip_image058表示求导求出来的clip_image012[9],然而最后的clip_image012[10],要根据下面情况得到:

clip_image059

这样得到clip_image061后,我们可以得到clip_image009[12]的新值clip_image063

下面进入Platt的文章,来找到启发式搜索的方法和求b值的公式。

这边文章使用的符号表示有点不太一样,不过实质是一样的,先来熟悉一下文章中符号的表示。

文章中定义特征到结果的输出函数为

clip_image064

与我们之前的clip_image066实质是一致的。

原始的优化问题为:

clip_image067

求导得到:

clip_image068

经过对偶后为:

clip_image069

s.t. clip_image070

clip_image071

这里与W函数是一样的,只是符号求反后,变成求最小值了。clip_image073clip_image075是一样的,都表示第i个样本的输出结果(1或-1)。

经过加入松弛变量clip_image077后,模型修改为:

clip_image078

clip_image079

由公式(7)代入(1)中可知,

clip_image080

这个过程和之前对偶过程一样。

重新整理我们要求的问题为:

clip_image081

与之对应的KKT条件为:

clip_image082

这个KKT条件说明,在两条间隔线外面的点,对应前面的系数clip_image084为0,在两条间隔线里面的对应clip_image084[1]为C,在两条间隔线上的对应的系数clip_image084[2]在0和C之间。

将我们之前得到L和H重新拿过来:

clip_image085

clip_image086

之前我们将问题进行到这里,然后说将clip_image009[13]clip_image012[11]表示后代入W中,这里将代入clip_image088中,得

clip_image090

其中

clip_image091

这里的clip_image093clip_image095代表某次迭代前的原始值,因此是常数,而clip_image009[14]clip_image012[12]是变量,待求。公式(24)中的最后一项是常数。

由于clip_image009[15]clip_image012[13]满足以下公式

clip_image097

因为clip_image099的值是固定值,在迭代前后不会变。

那么用s表示clip_image101,上式两边乘以clip_image103时,变为:

clip_image104

其中

clip_image106

代入(24)中,得

clip_image107

这时候只有clip_image012[14]是变量了,求导

clip_image109

如果clip_image088[1]的二阶导数大于0(凹函数),那么一阶导数为0时,就是极小值了。

假设其二阶导数为0(一般成立),那么上式化简为:

clip_image110

将w和v代入后,继续化简推导,得(推导了六七行推出来了)

clip_image112

我们使用clip_image114来表示:

clip_image115

通常情况下目标函数是正定的,也就是说,能够在直线约束方向上求得最小值,并且clip_image117

那么我们在(30)两边都除以clip_image114[1]可以得到

clip_image118

这里我们使用clip_image061[1]表示优化后的值,clip_image012[15]是迭代前的值,clip_image120

与之前提到的一样clip_image061[2]不是最终迭代后的值,需要进行约束:

clip_image121

那么

clip_image122

在特殊情况下,clip_image114[2]可能不为正,如果核函数K不满足Mercer定理,那么目标函数可能变得非正定,clip_image114[3]可能出现负值。即使K是有效的核函数,如果训练样本中出现相同的特征x,那么clip_image114[4]仍有可能为0。SMO算法在clip_image114[5]不为正值的情况下仍有效。为保证有效性,我们可以推导出clip_image114[6]就是clip_image088[2]的二阶导数,clip_image124clip_image088[3]没有极小值,最小值在边缘处取到(类比clip_image126),clip_image128时更是单调函数了,最小值也在边缘处取得,而clip_image012[16]的边缘就是L和H。这样将clip_image130clip_image132分别代入clip_image088[4]中即可求得clip_image088[5]的最小值,相应的clip_image130[1]还是clip_image132[1]也可以知道了。具体计算公式如下:

clip_image134

至此,迭代关系式出了b的推导式以外,都已经推出。

b每一步都要更新,因为前面的KKT条件指出了clip_image084[3]clip_image136的关系,而clip_image138和b有关,在每一步计算出clip_image084[4]后,根据KKT条件来调整b。

b的更新有几种情况:

clip_image140

来自罗林开的ppt

这里的界内指clip_image142,界上就是等于0或者C了。

前面两个的公式推导可以根据clip_image144

和对于clip_image142[1]clip_image146的KKT条件推出。

这样全部参数的更新公式都已经介绍完毕,附加一点,如果使用的是线性核函数,我们就可以继续使用w了,这样不用扫描整个样本库来作内积了。

w值的更新方法为:

clip_image147

根据前面的

clip_image068[1]

公式推导出。

12 SMO中拉格朗日乘子的启发式选择方法

终于到了最后一个问题了,所谓的启发式选择方法主要思想是每次选择拉格朗日乘子的时候,优先选择样本前面系数clip_image142[2]clip_image084[5]作优化(论文中称为无界样例),因为在界上(clip_image084[6]为0或C)的样例对应的系数clip_image084[7]一般不会更改。

这条启发式搜索方法是选择第一个拉格朗日乘子用的,比如前面的clip_image012[17]。那么这样选择的话,是否最后会收敛。可幸的是Osuna定理告诉我们只要选择出来的两个clip_image084[8]中有一个违背了KKT条件,那么目标函数在一步迭代后值会减小。违背KKT条件不代表clip_image142[3],在界上也有可能会违背。是的,因此在给定初始值clip_image084[9]=0后,先对所有样例进行循环,循环中碰到违背KKT条件的(不管界上还是界内)都进行迭代更新。等这轮过后,如果没有收敛,第二轮就只针对clip_image142[4]的样例进行迭代更新。

在第一个乘子选择后,第二个乘子也使用启发式方法选择,第二个乘子的迭代步长大致正比于clip_image149,选择第二个乘子能够最大化clip_image149[1]。即当clip_image151为正时选择负的绝对值最大的clip_image153,反之,选择正值最大的clip_image153[1]

最后的收敛条件是在界内(clip_image142[5])的样例都能够遵循KKT条件,且其对应的clip_image084[10]只在极小的范围内变动。

至于如何写具体的程序,请参考John C. Platt在论文中给出的伪代码。

13 总结

这份SVM的讲义重点概括了SVM的基本概念和基本推导,中规中矩却又让人醍醐灌顶。起初让我最头疼的是拉格朗日对偶和SMO,后来逐渐明白拉格朗日对偶的重要作用是将w的计算提前并消除w,使得优化函数变为拉格朗日乘子的单一参数优化问题。而SMO里面迭代公式的推导也着实让我花费了不少时间。

对比这么复杂的推导过程,SVM的思想确实那么简单。它不再像logistic回归一样企图去拟合样本点(中间加了一层sigmoid函数变换),而是就在样本中去找分隔线,为了评判哪条分界线更好,引入了几何间隔最大化的目标。

之后所有的推导都是去解决目标函数的最优化上了。在解决最优化的过程中,发现了w可以由特征向量内积来表示,进而发现了核函数,仅需要调整核函数就可以将特征进行低维到高维的变换,在低维上进行计算,实质结果表现在高维上。由于并不是所有的样本都可分,为了保证SVM的通用性,进行了软间隔的处理,导致的结果就是将优化问题变得更加复杂,然而惊奇的是松弛变量没有出现在最后的目标函数中。最后的优化求解问题,也被拉格朗日对偶和SMO算法化解,使SVM趋向于完美。

另外,其他很多议题如SVM背后的学习理论、参数选择问题、二值分类到多值分类等等还没有涉及到,以后有时间再学吧。其实朴素贝叶斯在分类二值分类问题时,如果使用对数比,那么也算作线性分类器。


这篇关于SVM(三) SMO优化算法求解的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1054577

相关文章

深入理解Mysql OnlineDDL的算法

《深入理解MysqlOnlineDDL的算法》本文主要介绍了讲解MysqlOnlineDDL的算法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小... 目录一、Online DDL 是什么?二、Online DDL 的三种主要算法2.1COPY(复制法)

Python绘制TSP、VRP问题求解结果图全过程

《Python绘制TSP、VRP问题求解结果图全过程》本文介绍用Python绘制TSP和VRP问题的静态与动态结果图,静态图展示路径,动态图通过matplotlib.animation模块实现动画效果... 目录一、静态图二、动态图总结【代码】python绘制TSP、VRP问题求解结果图(包含静态图与动态图

Docker多阶段镜像构建与缓存利用性能优化实践指南

《Docker多阶段镜像构建与缓存利用性能优化实践指南》这篇文章将从原理层面深入解析Docker多阶段构建与缓存机制,结合实际项目示例,说明如何有效利用构建缓存,组织镜像层次,最大化提升构建速度并减少... 目录一、技术背景与应用场景二、核心原理深入分析三、关键 dockerfile 解读3.1 Docke

从原理到实战解析Java Stream 的并行流性能优化

《从原理到实战解析JavaStream的并行流性能优化》本文给大家介绍JavaStream的并行流性能优化:从原理到实战的全攻略,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的... 目录一、并行流的核心原理与适用场景二、性能优化的核心策略1. 合理设置并行度:打破默认阈值2. 避免装箱

Python实战之SEO优化自动化工具开发指南

《Python实战之SEO优化自动化工具开发指南》在数字化营销时代,搜索引擎优化(SEO)已成为网站获取流量的重要手段,本文将带您使用Python开发一套完整的SEO自动化工具,需要的可以了解下... 目录前言项目概述技术栈选择核心模块实现1. 关键词研究模块2. 网站技术seo检测模块3. 内容优化分析模

Java实现复杂查询优化的7个技巧小结

《Java实现复杂查询优化的7个技巧小结》在Java项目中,复杂查询是开发者面临的“硬骨头”,本文将通过7个实战技巧,结合代码示例和性能对比,手把手教你如何让复杂查询变得优雅,大家可以根据需求进行选择... 目录一、复杂查询的痛点:为何你的代码“又臭又长”1.1冗余变量与中间状态1.2重复查询与性能陷阱1.

Python内存优化的实战技巧分享

《Python内存优化的实战技巧分享》Python作为一门解释型语言,虽然在开发效率上有着显著优势,但在执行效率方面往往被诟病,然而,通过合理的内存优化策略,我们可以让Python程序的运行速度提升3... 目录前言python内存管理机制引用计数机制垃圾回收机制内存泄漏的常见原因1. 循环引用2. 全局变

Python多线程应用中的卡死问题优化方案指南

《Python多线程应用中的卡死问题优化方案指南》在利用Python语言开发某查询软件时,遇到了点击搜索按钮后软件卡死的问题,本文将简单分析一下出现的原因以及对应的优化方案,希望对大家有所帮助... 目录问题描述优化方案1. 网络请求优化2. 多线程架构优化3. 全局异常处理4. 配置管理优化优化效果1.

MySQL中优化CPU使用的详细指南

《MySQL中优化CPU使用的详细指南》优化MySQL的CPU使用可以显著提高数据库的性能和响应时间,本文为大家整理了一些优化CPU使用的方法,大家可以根据需要进行选择... 目录一、优化查询和索引1.1 优化查询语句1.2 创建和优化索引1.3 避免全表扫描二、调整mysql配置参数2.1 调整线程数2.

深入解析Java NIO在高并发场景下的性能优化实践指南

《深入解析JavaNIO在高并发场景下的性能优化实践指南》随着互联网业务不断演进,对高并发、低延时网络服务的需求日益增长,本文将深入解析JavaNIO在高并发场景下的性能优化方法,希望对大家有所帮助... 目录简介一、技术背景与应用场景二、核心原理深入分析2.1 Selector多路复用2.2 Buffer