디렉토리
그라디언트 강하 법, 라그랑주 승수는 KKT 조건 리콜
지각 모델 리콜
SVM 선형 분리
SVM 선형 분리
핵심 기능
SMO를
SVM 선형 분리, SVM 선형 분리, 커널 함수를 도출해야합니다
----------------------------
이 편미분 2 차 속도 인 경우 (단계)을 학습하는 것은, 임의의 개수가 될 수 있으며, 이는 뉴턴 방법이었다
최적화의 문제 :
제약 조건의 일부를 주어진 대상의 기능을 감안할 때, 그것은 최적화 모델을 구성한다. 반복은 반복 이전에 목적 함수를 제한받지해야합니다.
예 듀얼 문제 : 1, 그리고 그 최소값, 최대 값의 최대 값을 선택하고,이 최소 변환 추구. . 2,이 수를 위해 최소 번호의 최대 수로 변환 반대를 찾을 수
증거 KKT 조건의 세 가지 큰 혜택의 최적화 문제에 대한이 확장에서 모습을 찾아 볼 수 있습니다
베타]가 0이면, g (X)보다 크면 있기 위해서는 <0 = 오지 않을 수도 원래 제약 만 베타> = 0을 변경하지.
그리고 L은 최소 요구이며, 그 목적 함수는 F (X)는 다음 제로로 F (x)를 최소화 같으면 다음 것들 L의 최소 값이 필요하다. 범위 이후, 우리는 상황가 0 무엇에 따라 입증 할 수있는 방법을 찾을 일이 0 다시 같지 않은 것이 분명하다.
따라서, 방법을 증명 : βg = 0
이하, 개시가 고려되지 않은 경우 g (X) <= 0이 제약 있지만 최소 값 F (x)를, 우리는 최적의 솔루션을 X *를 수득 할 수있을 것이다, 최소한 유도체가 0 인 찾아
① X *하는 제약 g (x)에 대입하면 <= 0 (즉,도는 g (X) <= 0 협착 영역이 구성된다) 아무런 개시가 없어, 이미 제한 영역이어서, 단지 0 미만이며 원래의 함수 f (X)의 역할은하지 쓸모가 무엇 뒤에? 0 자연 다소 쓸모, g (X) <0, β = 0 다음 약간
②如果x*代入约束条件g(x)<=0后,x*没在约束区域内,它是在区域外(>0)或者在区域边缘(=0)上,大于0不满足咱们的g(x)<=0的约束条件,pass掉,那只能找咱们等于0的时候了,在圆上,那就是g(x*)=0,那完了,g(x)=0了,βg也等于0 了。
证明完毕。
证明方式二:
如下图,转化为了从最大值里面挑一个最小值的问题。引入了上界的概念,比如cosx,1,2,3,所有1的倍数都是它的上界,但是1是最小的上界。
最终目的是求x与β的,求β最大值可不好求啊,无数个啊朋友们,所以这里用到对偶了,先求最小再 求最大值
最后βg=0.
证明方式三:
求minf(x),在约束条件g(x)<=0下,加入松弛变量a2,使得g(x)+a2=0,本来是加a的,为了保证它是正的,所以平方了一下。
原函数成了这样:L=f(x)+λ(g(x)+a2);为了不改变原来的约束条件,λ>=0
接下来求导就可以了
可知
因此,λg=0
三种证明条件的方法完毕。
所有求不等式的条件:
感知器模型:
感知器算法是最古老的分类算法之一,原理比较简单,不过模型的分类泛化能力比较弱,不过感知器模型是SVM、神经网络、深度学习等算法的基础。
感知器的思想很简单:比如班级有很多的同学,分为男同学和女同学,感知器模型就是试图找到一条直线,能够把所有的男同学和女同学分隔开,
如果是高维空间中,感知器模型寻找的就是一个超平面,能够把所有的二元类别分割开。
感知器模型的前提是:数据是线性可分的
SVM
SVM硬间隔
前提:所有样本均分类正确
目的:在该前提下,搭建一个(让离超平面比较近的点离超平面尽可能的远(也就是最大化硬间隔))的分类器
wtx+b=0是超平面,假设所有样本都分类正确,设xs为距离较近的那些点,那么分类正确的离超平面比较近的点要尽可能的离超平面远。wTxs+b/w的二范数为最近的点到超平面的距离,假设wTxs+b的绝对值为1,得到上式
如果所有样本点都分类正确,那么最近的那些点yiwTxs+b>=0(感知器知识)分对的时候,自然同号。
而y是±1,wTxs+b也是±1,所以,yiwTxs+b=1,既然最近的那些点=1,那么其他远的点,就是大于1了.
所以其他的远的点就是yiwTxi+b>=1
m个约束条件,引入的超参也就有m个,每个样本都有对应的参数βi
求J(w)的最小值,找L和J(w)的关系,这部分是<=0的,所以J(w)是L关于β的最大值(只有关于β,其他都是我们要求的参数),求J(w)最小,再套个min就好。
求最小值,就是求偏导咯
算到这里是用β表示w和b,把这两个表达式代入目标函数L中去,此时还有一个未知参数β
那么到这一步最小值求完了,外面还套着一层max,接着求max值
来源于,于是把此带进去作为约束条件
该问题通过一系列转化:
这里要求的未知参数是m个β值,非常麻烦,所以后续会有SMO算法收拾它
SVM软间隔
非线性可分SVM模型
升维后再内积的话维度实在太多太多。我们设法使一个函数来代替升维后的内积,此类函数即为核函数,共三个参数可调,除了图中框起来的,还有相关的系数可调,如下图
例子:0.8476即为相关的系数,也是第三个可调的参数
SMO算法
核心原理:迭代与优化原理:θnew=f(θold),用自己,表示自己
θnew-θold=Δθ
作用:求下列约束优化问题的最优解β*
等价于
分离超平面为g(x)=wTx+b
推导过程太复杂,不再作多阐述,这里给出结果与算法的实现
SMO不适合大批量数据,参数太多,计算太复杂
SVR算法其实就是线性回归的对偶问题,本质还是线性回归问题罢了