博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
数学:SVM(7)对偶问题KKT条件
阅读量:4060 次
发布时间:2019-05-25

本文共 913 字,大约阅读时间需要 3 分钟。

首先理解KKT条件:

若一个优化问题转成对偶问题后,表达式如下:

L(x,a,b) = f(x) + Sum{ ai * gi(x) } + Sum{ bi * hi(x) }

其中,g是不等式约束(将大于号都转化成小于号约束),h是等式约束。

那KKT条件是函数最优值必须满足三个条件:

  • (1) L对各个x求导为0;
  • (2) h(x) = 0;
  • (3) Sum{ ai * gi(x) } = 0, ai >= 0;

式子(1)和(2)好理解,但式子(3)可以进一步理解为ai取0或者gi(x)取0;

详细理解见

对于SVM对偶问题:

原凸优化表达式为:

min(W,b) max(a) L(W,a,b) = 1/2 * ||W||^2 + Sum{ ai * (1 - yi * (WT * Xi + b)) }

将极值点偏导为0带入后,消去W得到了一个新的需要约束规划的方程:

Max{ L(a) } = Sum{ ai } - 1/2 * Sum{ Sum{ ai * aj * yi * yj * XiT * Xj } }

其中,对于一个样本(Xi,yi),有一个ai。

解出ai,带回可以计算得到W,b。

即得到支持向量模型:

f(x) = WT * X + b = Sum{ ai * yi * XiT * X } + b

如何计算ai,解法采用使用KKT条件(具体算法细节见SMO算法):

拉格朗日乘子有约束 ai >= 0;

凸优化极值点有 Sum{ ai * yi } = 0;

综合上述条件发现,新的约束规划方程正好可以满足KKT条件,即:

  • ai >= 0;
  • yi * f(Xi) - 1 >= 0;
  • ai * (yi * f(xi) - 1) = 0;

当满足KKT条件时,对于任意样本(Xi,yi),总有ai = 0或yi * f(Xi) = 1.

若ai = 0,则该样本不会在模型f(x)中出现,即不会对模型有任何影响;
若ai > 0, 则必有yi * f(xi) = 1,其含义为样本处于支持向量上。

所以,支持向量机的特点在于,训练完成后,大部分训练样本都不保留,最终模型仅与支持向量有关。

转载地址:http://tuwji.baihongyu.com/

你可能感兴趣的文章
MySQL数据库的高可用方案总结
查看>>
常用排序算法总结(一) 比较算法总结
查看>>
SSH原理与运用
查看>>
SIGN UP BEC2
查看>>
S3C2440中对LED驱动电路的理解
查看>>
《天亮了》韩红
查看>>
Windows CE下USB摄像头驱动开发(以OV511为例,附带全部源代码以及讲解) [转]
查看>>
出现( linker command failed with exit code 1)错误总结
查看>>
iOS开发中一些常见的并行处理
查看>>
iOS获取手机的Mac地址
查看>>
ios7.1发布企业证书测试包的问题
查看>>
如何自定义iOS中的控件
查看>>
iOS 开发百问
查看>>
Mac环境下svn的使用
查看>>
github简单使用教程
查看>>
如何高效利用GitHub
查看>>
环境分支-git版本管理
查看>>
uni-app 全局变量
查看>>
js判断空对象的几种方法
查看>>
java 不用递归写tree
查看>>