首页 > 编程知识 正文

matlab仿真实例(matlab二分类svm高斯核 实例,16 SVM - 代码案例三 - 不同SVM核函数效果比较)

时间:2023-05-04 11:27:04 阅读:121262 作者:3651

SVM章节已经结束了。 具体内容请参照“《01 SVM - 大纲》”

一般操作:

1、在头文件中引入SVM相关软件包

2、防止中文乱码

3、读取数据

4、数据分割训练集和测试集6:4

导入时间

import numpy as np

导入pandas as PD

导入矩阵as mpl

import matplotlib.pyplot as plt

from sklearn.svm import SVC

froms klearn.model _ selectionimporttrain _ test _ split

froms klearn.metricsimportaccuracy _ score

#设置属性以防止中文乱码

mpl.rcparams [ ' font.sans-serif ' ]=[ u ' simhei ' ]

mpl.rcparams [ ' axes.unicode _ MINUS ' ]=false

##读取数据

# 'sepal length ',' sepal width ',' petal length ',' petal width '

iris_feature=u '萼长',u '萼宽',u '花瓣长',u '花瓣宽'

path='./datas/iris.data' #数据文件的路径

DATA=PD.read_CSV(path,header=None ) ) ) ) )。

x,y=data [ list (范围(4) ],data(4])

y=PD.categorical(y ).codes

x=x [ 0,1 ] ]

##数据分割

x_train,x_test,y_train,y_test=train_test_split(x,y,random_state=28,train_size=0.6 )

构建数据SVM分类器:

1、线性磁芯; 2、yqdzc核; 3、多项式核; 4、Sigmoid核函数;

10 SVM -核函数-文末介绍了四种核函数,特别是yqdzc核。

(SVM1=SVC(c=1,kernel='linear ' ) ) ) ) ) ) ) )。

(SVM2=SVC(c=1,kernel='rbf ' () ) ) ) ) ) ) ) 652

SVM3=SVC(c=1,kernel='poly ' ) ) ) ) ) ) ) )。

(SVM4=SVC(c=1,kernel='sigmoid ' ) ) ) ) ) ) ) 652

##模特培训

t0=time.time (

SVM1.fit(x_train,y_train ) )。

t1=time.time (

SVM2.fit(x_train,y_train ) )。

t2=time.time (

SVM3.fit(x_train,y_train ) )。

t3=time.time (

SVM4.fit(x_train,y_train ) )。

t4=time.time (

效果评估:

SVM1_ score1=accuracy _ score (y _ train,SVM1.predict ) x_train ) )

SVM1_ score2=accuracy _ score (y _ test,SVM1.predict ) x_test ) )

SVM2_ score1=accuracy _ score (y _ train,SVM2.predict ) x_train ) )

SVM2_ score2=accuracy _ score (y _ test,SVM2.predict ) x_test ) )

SVM3_ score1=accuracy _ score (y _ train,SVM3.predict ) x_train ) )

SVM3_ score2=accuracy _ score (y _ test,SVM3.predict ) x_test ) )

SVM4_ score1=accuracy _ score (y _ train,SVM4.predict ) x_train ) )

SVM4_ score2=accuracy _ score (y _ test,SVM4.predict ) x_test ) )

绘制-光圈数据按SVM分类器划分的内核函数模型比较:

x _ tmp=[ 0,1,2,3 ]

t_score=[t1 - t0、t2-t1、t3-t2、t4-t3]

y_score1=[svm1_score1,svm2_score1,svm3_score1,svm4_score1]

y_score2=[svm1_score2,svm2_score2,svm3_score2,svm4_sc

ore2]

plt.figure(facecolor='w', figsize=(12,6))

模型预测准确率比较:

plt.subplot(121)

plt.plot(x_tmp, y_score1, 'r-', lw=2, label=u'训练集准确率')

plt.plot(x_tmp, y_score2, 'g-', lw=2, label=u'测试集准确率')

plt.xlim(-0.3, 3.3)

plt.ylim(np.min((np.min(y_score1), np.min(y_score2)))*0.9,

np.max((np.max(y_score1), np.max(y_score2)))*1.1)

plt.legend(loc = 'lower left')

plt.title(u'模型预测准确率', fontsize=13)

plt.xticks(x_tmp, [u'linear-SVM', u'rbf-SVM', u'poly-SVM', u'sigmoid-SVM'], rotation=0)

plt.grid(b=True)

模型训练耗时比较:

plt.subplot(122)

plt.plot(x_tmp, t_score, 'b-', lw=2, label=u'模型训练时间')

plt.title(u'模型训练耗时', fontsize=13)

plt.xticks(x_tmp, [u'linear-SVM', u'rbf-SVM', u'poly-SVM', u'sigmoid-SVM'], rotation=0)

plt.xlim(-0.3, 3.3)

plt.grid(b=True)

plt.suptitle(u'鸢尾花数据SVM分类器不同内核函数模型比较', fontsize=16)

plt.show()

预测结果画图

画图比较:

N = 500

x1_min, x2_min = x.min()

x1_max, x2_max = x.max()

t1 = np.linspace(x1_min, x1_max, N)

t2 = np.linspace(x2_min, x2_max, N)

x1, x2 = np.meshgrid(t1, t2) # 生成网格采样点

grid_show = np.dstack((x1.flat, x2.flat))[0] # 测试点

获取各个不同算法的测试值:

svm1_grid_hat = svm1.predict(grid_show)

svm1_grid_hat = svm1_grid_hat.reshape(x1.shape) # 使之与输入的形状相同

svm2_grid_hat = svm2.predict(grid_show)

svm2_grid_hat = svm2_grid_hat.reshape(x1.shape) # 使之与输入的形状相同

svm3_grid_hat = svm3.predict(grid_show)

svm3_grid_hat = svm3_grid_hat.reshape(x1.shape) # 使之与输入的形状相同

svm4_grid_hat = svm4.predict(grid_show)

svm4_grid_hat = svm4_grid_hat.reshape(x1.shape) # 使之与输入的形状相同

画图:

cm_light = mpl.colors.ListedColormap(['#A0FFA0', '#FFA0A0', '#A0A0FF'])

cm_dark = mpl.colors.ListedColormap(['g', 'r', 'b'])

plt.figure(facecolor='w', figsize=(14,7))

1、鸢尾花Linear-SVM特征分类 (线性核)

plt.subplot(221)

## 区域图

plt.pcolormesh(x1, x2, svm1_grid_hat, cmap=cm_light)

## 所以样本点

plt.scatter(x[0], x[1], c=y, edgecolors='k', s=50, cmap=cm_dark) # 样本

## 测试数据集

plt.scatter(x_test[0], x_test[1], s=120, facecolors='none', zorder=10) # 圈中测试集样本

## lable列表

plt.xlabel(iris_feature[0], fontsize=13)

plt.ylabel(iris_feature[1], fontsize=13)

plt.xlim(x1_min, x1_max)

plt.ylim(x2_min, x2_max)

plt.title(u'鸢尾花Linear-SVM特征分类', fontsize=16)

plt.grid(b=True, ls=':')

plt.tight_layout(pad=1.5)

2、鸢尾花rbf-SVM特征分类 (yqdzc核)

plt.subplot(222)

## 区域图

plt.pcolormesh(x1, x2, svm2_grid_hat, cmap=cm_light)

## 所以样本点

plt.scatter(x[0], x[1], c=y, edgecolors='k', s=50, cmap=cm_dark) # 样本

## 测试数据集

plt.scatter(x_test[0], x_test[1], s=120, facecolors='none', zorder=10) # 圈中测试集样本

## lable列表

plt.xlabel(iris_feature[0], fontsize=13)

plt.ylabel(iris_feature[1], fontsize=13)

plt.xlim(x1_min, x1_max)

plt.ylim(x2_min, x2_max)

plt.title(u'鸢尾花rbf-SVM特征分类', fontsize=16)

plt.grid(b=True, ls=':')

plt.tight_layout(pad=1.5)

3、鸢尾花poly-SVM特征分类 (多项式核)

plt.subplot(223)

## 区域图

plt.pcolormesh(x1, x2, svm3_grid_hat, cmap=cm_light)

## 所以样本点

plt.scatter(x[0], x[1], c=y, edgecolors='k', s=50, cmap=cm_dark) # 样本

## 测试数据集

plt.scatter(x_test[0], x_test[1], s=120, facecolors='none', zorder=10) # 圈中测试集样本

## lable列表

plt.xlabel(iris_feature[0], fontsize=13)

plt.ylabel(iris_feature[1], fontsize=13)

plt.xlim(x1_min, x1_max)

plt.ylim(x2_min, x2_max)

plt.title(u'鸢尾花poly-SVM特征分类', fontsize=16)

plt.grid(b=True, ls=':')

plt.tight_layout(pad=1.5)

4、鸢尾花sigmoid-SVM特征分类:

plt.subplot(224)

## 区域图

plt.pcolormesh(x1, x2, svm4_grid_hat, cmap=cm_light)

## 所以样本点

plt.scatter(x[0], x[1], c=y, edgecolors='k', s=50, cmap=cm_dark) # 样本

## 测试数据集

plt.scatter(x_test[0], x_test[1], s=120, facecolors='none', zorder=10) # 圈中测试集样本

## lable列表

plt.xlabel(iris_feature[0], fontsize=13)

plt.ylabel(iris_feature[1], fontsize=13)

plt.xlim(x1_min, x1_max)

plt.ylim(x2_min, x2_max)

plt.title(u'鸢尾花sigmoid-SVM特征分类', fontsize=16)

plt.grid(b=True, ls=':')

plt.tight_layout(pad=1.5)

plt.show()

PS: 还记得讲核函数时候说过的话么?

yqdzc核 可以近似表示无穷维的扩展,效果最好。

sigmoid核 一塌糊涂,不要去用。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。