码迷,mamicode.com
首页 > 其他好文 > 详细

Reshape以及向量机分类学习和等高线绘制代码

时间:2018-10-14 20:48:24      阅读:245      评论:0      收藏:0      [点我收藏+]

标签:gre   scale   离线   需要   standard   scala   ase   概念   矩阵   

  首先科普一下python里面对于数组的处理,就是如果获取数组大小,以及数组元素数量,这个概念是不一样的,就是一个size和len处理不用。老规矩,上代码:

1 arr2 = np.array([-19.51679711, -18.06166131, -16.65282549, 8.70287809,9.9485567 , 11.23867649, 3,4])
2 pprint(arr2.size)
3 pprint(len(arr2))

 

>>8

>>8

  貌似两者没啥区别,但是真的是这样吗?

Code:

1 arr2 = np.array([[-19.51679711, -18.06166131, -16.65282549, 8.70287809,9.9485567 , 11.23867649, 3,4]])
2 pprint(arr2.size)
3 pprint(len(arr2))

 

>>8

>>1

  在多维数组中,size代表的是所有的最小单元的总和,len则是代表多维数组元素的数量。

  接着我们讲一下reshape,重新塑形,简单的讲就是将一个一维数组,打成多维数组:

1 arr = np.arange(6)
2 brr = arr.reshape((3,2))
3 pprint(brr)

 

>> array([[0, 1], [2, 3], [4, 5]])

  介绍完了基础知识,我们再来看一下SVM的分类学习

 1 from sklearn.datasets import make_moons
 2 X, y = make_moons(n_samples=100, noise=0.15, random_state=42)
 3 
 4 def plot_dataset(X, y, axes):
 5     plt.plot(X[y==0, 0], X[y==0, 1], "bs")
 6     plt.plot(X[y==1, 0], X[y==1, 1], "g^")
 7     plt.axis(axes)
 8     plt.grid(True, which="both") #这个双引号行吗?没问题
 9     plt.xlabel("$x_1$")
10     plt.ylabel("$x_2$")
11 
12 plot_dataset(X, y, [-1.5, 2.5, -1, 1.5])
13 plt.show()

 

技术分享图片

 1 from sklearn.pipeline import Pipeline
 2 from sklearn.preprocessing import PolynomialFeatures
 3 
 4 polynomial_svm_clf=Pipeline((
 5     ("ploy_feature", PolynomialFeatures(degree=3)), # 这里为什么需要多项式?有什么影响?
 6     ("ploy_scale", StandardScaler()), # 缩小,减小离群点对于整体影响;
 7     ("svm", LinearSVC(C=10, loss="hinge")) 
 8 ))
 9 
10 polynomial_svm_clf.fit(X, y)

 

 

 1 # 基于坐标范围,形成点群(X)以及每个点的分类(y,等高线就是根据y值绘制的);所以可以看到每个点其实是有三个属性,坐标(x, y)以及分类
 2 # 这个函数就是要生成这样的点,然后根据分类绘制等高线,这批套路非常重要
 3 def plot_prediction(clf, axes):
 4     x0s = np.linspace(axes[0], axes[1], 100) # 根据坐标范围等分点
 5     x1s = np.linspace(axes[2], axes[3], 100)
 6     # 这个是做什么的? meshgrid之后将会形成两套矩阵, 有大量容易,其实都是根据第一行(x0))和第一列(x1)进行衍生
 7     x0, x1 = np.meshgrid(x0s, x1s) 
 8     # 这个又是在做什么?将衍生的矩阵里面的向量进行拉伸,通过np.c_进行整合,将会得到一个矩阵,矩阵里面每个向量都是两个元素(代表一个坐标),
 9     # 来自于拉伸的两个矩阵的组合
10     X = np.c_[x0.ravel(), x1.ravel()]
11     plt.plot(X[501:600,0], X[501:600,1], "ys")
12     # 获取的完了predict为什么要reshape一下?clf.predict(X)返回的只是一个一维数组,每个数组对应X的一个向量(每个向量都是一个点),
13     # reshape之后,将会复制N行并返回N行的矩阵(N的值和X的行向量数量是一样的)
14     y_pred = clf.predict(X).reshape(x0.shape) 
15     # decsion_function干嘛,为啥完事后有reshape一下?decision_function代表参数实例(各个元素)到分类平面(超平面)的距离,所以其数量
16     # 是等于X中向量的数量:10000,x0.shape是(100,100),于是reshape之后将会成为100行100列的多维数组
17     y_decision = clf.decision_function(X).reshape(x0.shape)
18     # 绘制分类(等高)线
19     plt.contourf(x0, x1, y_pred, cmap=plt.cm.brg, alpha=0.2)
20     # 绘制距离线
21     plt.contourf(x0, x1, y_decision, cmap=plt.cm.brg, alpha=0.1)
22     
23 plot_prediction(polynomial_svm_clf, [-1.5, 2.5, -1, 1.5]) #花了两条等高线
24 plot_dataset(X, y, [-1.5, 2.5, -1, 1.5]) # 换了两个交互的半环
25 plt.show()

 

技术分享图片 技术分享图片

  这段代码基本思路如下:

  我先有数据,一个月牙环形数据(左侧图);然后我用这个数据,训练出来一个向量机(SVM),因为数据是曲线的,所以需要高次公式,于是搞了一个Pipeline,整合了Scalar和SVM来进行学习;通过fit函数,把模型的参数都搞掂了;然后我利用这个向量机来进行绘制边界线,怎么来绘制呢?首先在坐标中获取10000个点,均匀的散播在整个坐标系中;我再把这些点扔到SVM中,让他根据之前学习的结果获取分类,contours英文意思就是轮廓,在matlibplot中,contourf这个函数将会把轮廓画出来,并且填充颜色;简单讲就是同类别同颜色,然后会在不同类别之间画出一条分界线。

  这段代码意义在于讲清楚了SVM的学习能力;通过针对半月环形数据的学习掌握了参数,具备了对于点判断分类的能力;未来当有海量的数据需要判断的时候,会基于之前的学习模型,来进行判断,分类,在右图海量数据作为测试数据的场景下,通过轮廓线说明了SVM所具备的学习能力。

Reshape以及向量机分类学习和等高线绘制代码

标签:gre   scale   离线   需要   standard   scala   ase   概念   矩阵   

原文地址:https://www.cnblogs.com/xiashiwendao/p/9787260.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!