码迷,mamicode.com
首页 > 编程语言 > 详细

机器学习--支持向量机 (SVM)算法的原理及优缺点

时间:2019-10-29 21:18:55      阅读:643      评论:0      收藏:0      [点我收藏+]

标签:sklearn   style   png   mode   tor   height   svm   sof   差距   

一、支持向量机 (SVM)算法的原理

  支持向量机(Support Vector Machine,常简称为SVM)是一种监督式学习的方法,可广泛地应用于统计分类以及回归分析。它是将向量映射到一个更高维的空间里,在这个空间里建立有一个最大间隔超平面。在分开数据的超平面的两边建有两个互相平行的超平面,分隔超平面使两个平行超平面的距离最大化。假定平行超平面间的距离或差距越大,分类器的总误差越小。

  技术图片技术图片技术图片

 

  对于线性可分的支持向量机求解问题实际上可转化为一个带约束条件的最优化求解问题:

    推理过程:

         技术图片 技术图片 

                                                                                  技术图片

                                                                                               技术图片

                                                                                              技术图片

                 结果:

                                                    技术图片   技术图片

 

  对于线性不可分的支持向量机求解问题实际上可转化为一个带约束条件的soft-margin最优化求解问题:

                        技术图片     技术图片

  算法优点:  

  (1)使用核函数可以向高维空间进行映射

  (2)使用核函数可以解决非线性的分类

  (3)分类思想很简单,就是将样本与决策面的间隔最大化

  (4)分类效果较好

  算法缺点

  (1)SVM算法对大规模训练样本难以实施

  (2)用SVM解决多分类问题存在困难

  (3)对缺失数据敏感,对参数和核函数的选择敏感  

二、代码实现

import numpy as np
import matplotlib.pyplot as plt
from sklearn import datasets
from sklearn.preprocessing import StandardScaler
from sklearn.svm import LinearSVC

iris = datasets.load_iris()

X = iris.data
y = iris.target

X = X[y<2,:2]
y = y[y<2]

plt.scatter(X[y==0,0], X[y==0,1], color=red)
plt.scatter(X[y==1,0], X[y==1,1], color=blue)

standardScaler = StandardScaler()
standardScaler.fit(X)
X_standard = standardScaler.transform(X)

svc = LinearSVC(C=1e9)
svc.fit(X_standard, y)

def plot_svc_decision_boundary(model, axis):
    
    x0, x1 = np.meshgrid(
        np.linspace(axis[0], axis[1], int((axis[1]-axis[0])*100)).reshape(-1, 1),
        np.linspace(axis[2], axis[3], int((axis[3]-axis[2])*100)).reshape(-1, 1),
    )
    X_new = np.c_[x0.ravel(), x1.ravel()]

    y_predict = model.predict(X_new)
    zz = y_predict.reshape(x0.shape)

    from matplotlib.colors import ListedColormap
    custom_cmap = ListedColormap([#EF9A9A,#FFF59D,#90CAF9])
    
    plt.contourf(x0, x1, zz, linewidth=5, cmap=custom_cmap)
    
    w = model.coef_[0]
    b = model.intercept_[0]
    
    # w0*x0 + w1*x1 + b = 0
    # => x1 = -w0/w1 * x0 - b/w1
    plot_x = np.linspace(axis[0], axis[1], 200)
    up_y = -w[0]/w[1] * plot_x - b/w[1] + 1/w[1]
    down_y = -w[0]/w[1] * plot_x - b/w[1] - 1/w[1]
    
    up_index = (up_y >= axis[2]) & (up_y <= axis[3])
    down_index = (down_y >= axis[2]) & (down_y <= axis[3])
    plt.plot(plot_x[up_index], up_y[up_index], color=black)
    plt.plot(plot_x[down_index], down_y[down_index], color=black)
    
plot_svc_decision_boundary(svc, axis=[-3, 3, -3, 3])
plt.scatter(X_standard[y==0,0], X_standard[y==0,1])
plt.scatter(X_standard[y==1,0], X_standard[y==1,1])

输出结果:

技术图片

 

机器学习--支持向量机 (SVM)算法的原理及优缺点

标签:sklearn   style   png   mode   tor   height   svm   sof   差距   

原文地址:https://www.cnblogs.com/lsm-boke/p/11761534.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!