《机器学习实战笔记--第一部分 分类算法:支持向量机 3》

    在复杂数据上应用核函数

  

    像这种非线性可分的情况,但是该数据又存在某种可以识别的模式。我们就要使用一种称为 核函数(kernel)  的工具将数据转换成易于分类器理解的形式。

    1、利用核函数将数据映射到高维空间

    上图所示,数据点处于一个圆中,人们大脑能意识到,但是分类器只能识别分类器的结果大于0还是小于0。所以我们在二维坐标轴中插入直线,效果并不理想。所以考虑一种方法,可以对圆中的数据进行某种形式的转换,得到新的变量来表示数据。在这种情况下更容易得到大于0或则小于0的测试结果。在这里例子中,我们将数据从一个特征空间转换到另一个特征空间,在新的空间下处理数据,称之为 一个特征空间到另一个特征空间的映射。

    通常这种映射是通过核函数来实现的。它能把数据从某些难以处理的形式,转化为另一个比较容易的处理形式。或则说是另一种距离计算方法。

    SVM优化中一个特别好的地方在于,所有运算都可以写成 内积 的形式。向量的内积就是两个向量相乘,得到数值。我们可以把内积替换成核函数,而不必做简化处理。将内积转化为核函数,称为核技巧。

    2、流行的核函数:径向基函数

    径向基函数是最常用的核函数之一。是一个采用向量作为自变量的函数,能基于向量距离运算输出一个标量。这个距离可以是从<0,0>向量或则其他向量开始计算的距离。

    径向基函数的高斯版本:                                                                         

    上述高斯核函数将数据从其特征空间映射到更高维的空间,具体来说这里是映射到无穷维的空间。对于上面的例子来说,我们意识到数据基本都在一个圆内,我们只需要度量数据点到圆心的距离即可。当然如果我们碰到了一个不是这种形式的数据集,那么我们就会陷入困境。在该数据集上使用高斯核函数可以得到很好的结果,当然在其他数据集上也能得到低错误率的结果。

    下面我们对上次的代码进行修改使用核函数:

    

#kTup是一个包含核函数信息的元组
def kernelTrans(X, A, kTup):
    m,n = shape(X)
    K = mat(zeros((m,1)))
    if kTup[0] == 'lin': K=X*A.T
    elif kTup[0] == 'rbf':
        for j in range(m):
            deltaRow = X[j,:] - A
            K[j] = deltaRow*deltaRow.T
        K = exp(K/(-1*kTup[1]**2))
    else: raise NameError("error")
    return K

class optStruct:
    def __init__(self,dataMatIn, classLabels, C, toler,kTup):  # Initialize the structure with the parameters 
        self.X = dataMatIn
        self.labelMat = classLabels
        self.C = C
        self.tol = toler
        self.m = shape(dataMatIn)[0]
        self.alphas = mat(zeros((self.m,1)))
        self.b = 0
        self.eCache = mat(zeros((self.m,2))) #first column is valid flag
        self.K = mat(zeros((self.m, self.m)))
        #计算k矩阵,只需计算一次
        #kTup第一个参数:核函数类型的字符串
        #另外两个参数:核函数需要的可选参数
        for i in range(self.m):
            self.K[:,i] = kernerlTrans(self.X, self.X[i,:], kTup)
            
def calcEk(oS, k):
    fXk = float(multiply(oS.alphas,oS.labelMat).T*oS.K[:,k] + oS.b)
    Ek = fXk - float(oS.labelMat[k])
    return Ek
        
def selectJ(i, oS, Ei):         #this is the second choice -heurstic, and calcs Ej
    maxK = -1; maxDeltaE = 0; Ej = 0
    oS.eCache[i] = [1,Ei]  #set valid #choose the alpha that gives the maximum delta E
    validEcacheList = nonzero(oS.eCache[:,0].A)[0]
    if (len(validEcacheList)) > 1:
        for k in validEcacheList:   #loop through valid Ecache values and find the one that maximizes delta E
            if k == i: continue #don't calc for i, waste of time
            Ek = calcEk(oS, k)
            deltaE = abs(Ei - Ek)
            if (deltaE > maxDeltaE):
                maxK = k; maxDeltaE = deltaE; Ej = Ek
        return maxK, Ej
    else:   #in this case (first time around) we don't have any valid eCache values
        j = selectJrand(i, oS.m)
        Ej = calcEk(oS, j)
    return j, Ej

def updateEk(oS, k):#after any alpha has changed update the new value in the cache
    Ek = calcEk(oS, k)
    oS.eCache[k] = [1,Ek]
        
def innerL(i, oS):
    Ei = calcEk(oS, i)
    if ((oS.labelMat[i]*Ei < -oS.tol) and (oS.alphas[i] < oS.C)) or ((oS.labelMat[i]*Ei > oS.tol) and (oS.alphas[i] > 0)):
        j,Ej = selectJ(i, oS, Ei) #this has been changed from selectJrand
        alphaIold = oS.alphas[i].copy(); alphaJold = oS.alphas[j].copy();
        if (oS.labelMat[i] != oS.labelMat[j]):
            L = max(0, oS.alphas[j] - oS.alphas[i])
            H = min(oS.C, oS.C + oS.alphas[j] - oS.alphas[i])
        else:
            L = max(0, oS.alphas[j] + oS.alphas[i] - oS.C)
            H = min(oS.C, oS.alphas[j] + oS.alphas[i])
        if L==H: print ("L==H"); return 0
        eta = 2.0 * oS.K[i,j] - oS.K[i,i] - oS.K[j,j] #changed for kernel
        if eta >= 0: print ("eta>=0"); return 0
        oS.alphas[j] -= oS.labelMat[j]*(Ei - Ej)/eta
        oS.alphas[j] = clipAlpha(oS.alphas[j],H,L)
        updateEk(oS, j) #added this for the Ecache
        if (abs(oS.alphas[j] - alphaJold) < 0.00001): print ("j not moving enough"); return 0
        oS.alphas[i] += oS.labelMat[j]*oS.labelMat[i]*(alphaJold - oS.alphas[j])#update i by the same amount as j
        updateEk(oS, i) #added this for the Ecache                    #the update is in the oppostie direction
        b1 = oS.b - Ei- oS.labelMat[i]*(oS.alphas[i]-alphaIold)*oS.K[i,i] - oS.labelMat[j]*(oS.alphas[j]-alphaJold)*oS.K[i,j]
        b2 = oS.b - Ej- oS.labelMat[i]*(oS.alphas[i]-alphaIold)*oS.K[i,j]- oS.labelMat[j]*(oS.alphas[j]-alphaJold)*oS.K[j,j]
        if (0 < oS.alphas[i]) and (oS.C > oS.alphas[i]): oS.b = b1
        elif (0 < oS.alphas[j]) and (oS.C > oS.alphas[j]): oS.b = b2
        else: oS.b = (b1 + b2)/2.0
        return 1
    else: return 0

def smoP(dataMatIn, classLabels, C, toler, maxIter,kTup=('lin', 0)):    #full Platt SMO
    oS = optStruct(mat(dataMatIn),mat(classLabels).transpose(),C,toler, kTup)
    iter = 0
    entireSet = True; alphaPairsChanged = 0
    while (iter < maxIter) and ((alphaPairsChanged > 0) or (entireSet)):
        alphaPairsChanged = 0
        if entireSet:   #go over all
            for i in range(oS.m):        
                alphaPairsChanged += innerL(i,oS)
                print ("fullSet, iter: %d i:%d, pairs changed %d" % (iter,i,alphaPairsChanged))
            iter += 1
        else:#go over non-bound (railed) alphas
            nonBoundIs = nonzero((oS.alphas.A > 0) * (oS.alphas.A < C))[0]
            for i in nonBoundIs:
                alphaPairsChanged += innerL(i,oS)
                print ("non-bound, iter: %d i:%d, pairs changed %d" % (iter,i,alphaPairsChanged))
            iter += 1
        if entireSet: entireSet = False #toggle entire set loop
        elif (alphaPairsChanged == 0): entireSet = True  
        print ("iteration number: %d" % iter)
    return oS.b,oS.alphas
    

    为了使用核函数,先期的两个函数需要一些修改。

    在测试中使用核函数:

#利用核函数进行分类的径向基测试
def testRbf(k1=1.3):
    dataArr,labelArr = loadDataSet('testSetRBF.txt')
    b,alphas = smoP(dataArr, labelArr, 200, 0.0001, 10000, ('rbf', k1)) #C=200 important
    datMat=mat(dataArr); labelMat = mat(labelArr).transpose()
    #矩阵.A 转化为数组类型
    svInd=nonzero(alphas.A>0)[0]
    print(svInd)
    print('**********************')
    sVs=datMat[svInd] #get matrix of only support vectors
    labelSV = labelMat[svInd];
    print ("there are %d Support Vectors" % shape(sVs)[0])
    m,n = shape(datMat)
    errorCount = 0
    for i in range(m):
        kernelEval = kernelTrans(sVs,datMat[i,:],('rbf', k1))
        predict=kernelEval.T * multiply(labelSV,alphas[svInd]) + b
        if sign(predict)!=sign(labelArr[i]): errorCount += 1
    print ("the training error rate is: %f" % (float(errorCount)/m))
    dataArr,labelArr = loadDataSet('testSetRBF2.txt')
    errorCount = 0
    datMat=mat(dataArr); labelMat = mat(labelArr).transpose()
    m,n = shape(datMat)
    for i in range(m):
        kernelEval = kernelTrans(sVs,datMat[i,:],('rbf', k1))
        predict=kernelEval.T * multiply(labelSV,alphas[svInd]) + b
        if sign(predict)!=sign(labelArr[i]): errorCount += 1    
    print ("the test error rate is: %f" % (float(errorCount)/m))    

    上述代码只有一个可选的输入参数,就是高斯径向基函数中的一个用户定义变量。

    优化过程中寻找alpha非0的值,从而得到对应的支持向量,也得到了这些支持向量和alpha的类别标签值。

    测试的结果如下所示:

    

    我们可以改变不同的K1参数,来观察错误率,训练错误率,支持向量的个数随K1变化的情况。


上图中,支持向量有85个,优化算法必须使用这些向量才能对数据进行正确的分类。这就给读者径向基函数到达率太小的感觉,我们可以改变K1的值再进行观察。


    现在图中只有27个支持向量,同时此刻的测试错误率也在下降。该数据集在设置的某处存在着最优解,如果降低K1,那么训练的错误率会降低,但是测试错误率却会提高。

    支持向量的数目存在一个最优值。SVM的优点在于它能对数据进行高效分类。如果支持向量
太 少 ,就可能会得到一个很差的决策边界(下个例子会说明这一点);如果支持向量太多,也就
相当于每次都利用整个数据集进行分类,这种分类方法称为
k近邻。

猜你喜欢

转载自blog.csdn.net/qq_41635352/article/details/80288695