目录
1. SVM算法总结
-
选择 核函数 以及对应的 超参数
为什么要选择核函数?
升维 将线性问题不可分问题 升维后转化成 线性可分的问题
核函数 有那些? linea gauss polinormail tanh -
选择惩罚项系数C
min ||w||2 + Csum(ei) -
构造优化问题:
-
利用SMO算法 计算 α*
-
根据α* 计算w*
-
根据α* 得到支撑向量 计算每个支撑向量 对应的bs*
-
bs* 求平均得到b*
学得超平面:
仔细观察这个式子就会发现:
其实只需要关注 支撑向量的C>α>0 非支撑向量的alpha为0
W*的计算:
其实也就只需要关注 是支撑向量的几个点,支撑向量对于W,b的求解起关键作用,其他的非支撑向量,对模型没起任何作用
- 得到最终的判别式
神奇的SMO算法到底是如何进行的?
2. SMO算法
其中(xi,yi)表示训练样本数据,xi 为样本特征,yi∈{−1,1}为样本标签,C 为惩罚系数由自己设定。上述问题是要求解 N 个参数(α1,α2,α3,...,αN),其他参数均为已知
把原始求解 N 个参数二次规划问题分解成很多个子二次规划问题分别求解,每个子问题只需要求解 2 个参数,方法类似于坐标上升,节省时间成本和降低了内存需求。每次启发式选择两个变量进行优化,不断循环,直到达到函数最优值。
同时优化两个参数,固定其他 N-2 个参数,假设选择的变量为α1,α2,
固定其他参数α3,α4,...,αN,由于参数α3,α4,...,αN 的固定, 可以简化目标函数为只关于α1,α2的二元函数,Constant 表示常数项(不包含变量α1,α2 的项)。
v1 表示 x1 与 3---N 之后所有的样本运算
v2 表示 x2 与 3---N 之后所有的样本运算
其中:
Kij表示 xi 与 xj 输入到核函数 进行运算的结果
两边同时乘以 y1, 任意的y*2 = 1
得到:
需要优化的目标函数转化成:
上式中是关于变量α2 的函数,对上式求导并令其为 0 得:
将4, 6, 7 带入求导=0 的式子
令η=K11+K22−2K12
这里得到的α2 是未经过修建的alpha 不一定满足约束条件
翻译一下:
两个拉格朗日算子 0< α1 α2 < C限定必须在正方形盒子内部
α1y1+α2y2=固定值 限定了必须在直线上 最优解 必须是一条线段
新的α2 下限L 上限H
修建后的alpha
由于其他 N-2 个变量固定:
两边同时乘以y1:
选择α1 α2采用上述方法进行优化,直到不违反kkt条件
α1 α2优化的同时对b进行更新:
- 如果:
则 x1 y1 为支撑向量
两边乘以y1:
得到bnew:
只不过是拆成3部分而已
前两项可以替换为
得到:
如果
同理:
-
α1 α2 都满足:
取一个就行: -
如果都不满足 他们的中点:
取1/2 *(α1 + α2)