微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

sklearn-SVC实现与类参数详解

今天小编就为大家分享一篇sklearn-SVC实现与类参数详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧

sklearn-SVC实现与类参数

对应的API:http://scikit-learn.sourceforge.net/stable/modules/generated/sklearn.svm.SVC.html

它是基于libsvm实现的。随着样本数量增加,拟合时间的复杂度要高于二次,这就使得当样板数量超过一万个时,很难扩展到数据集中。

在多类处理时,是按照1对1的方案进行处理的。

函数的的定义为:

def __init__ (self, C=1.0, kernel='rbf', degree=3, gamma='auto',coef0=0.0, verbose=False, max_iter=-1, decision_function_shape='ovr', random_state=None):

参数的含义:

- C:float参数 认值为1.0。错误项的惩罚系数。C越大,即对分错样本的惩罚程度越大,因此在训练样本中准确率越高,但是泛化能力降低,也就是对测试数据的分类准确率降低。相反,减小C的话,容许训练样本中有一些误分类错误样本,泛化能力强。对于训练样本带有噪声的情况,一般采用后者,把训练样本集中错误分类的样本作为噪声。

- kernel: str参数 认为‘rbf‘,算法中采用的核函数类型,可选参数有:

linear:线性核函数

poly:多项式核函数

rbf:径像核函数/高斯核

sigmod:sigmod核函数

precomputed:核矩阵

- degree :int型参数 (default=3),这个参数只对多项式核函数poly)有用,是指多项式核函数的阶数n,如果给的核函数参数是其他核函数,则会自动忽略该参数。

- gamma:float参数,认为auto核函数系数,只对'rbf'、 ‘poly' 、 ‘sigmoid'有效。

如果gamma为auto,代表其值为样本特征数的倒数,即1/n_features。

- coef0:float参数 认为0.0

函数中的独立项,只有对‘poly'和‘sigmod'核函数有用,是指其中的参数c

- probability:bool参数 认为False

是否启用概率估计。 这必须在调用fit()之前启用,并且会fit()方法速度变慢。

- shrinking:bool参数 认为True

是否采用启发式收缩方式。

- tol: float参数 认为1e^-3

svm停止训练的误差精度。

- cache_size:float参数 认为200

指定训练所需要的内存,以MB为单位,认为200MB。 - class_weight:字典类型或者‘balance'字符串。认为None

给每个类别分别设置不同的惩罚参数C,则该类别的惩罚系数为class_weight[i]*C,如果没有给,则会给所有类别都给C=1,即前面参数指出的参数C。

如果给定参数‘balance',则使用y的值自动调整与输入数据中的类频率成反比的权重。

- verbose :bool参数 认为False

是否启用详细输出。 此设置利用libsvm中的每个进程运行时设置,如果启用,可能无法在多线程上下文中正常工作。一般情况都设为False,不用管它。

- max_iter :int参数 认为-1

最大迭代次数,如果为-1,表示不限制

- random_state:int型参数 认为None

随机数发生器的种子,在混洗数据时用于概率估计。

SVC的方法

1、fit()方法:用于训练SVM,具体参数已经在定义SVC对象的时候给出了,这时候只需要给出数据集X和X对应的标签y即可。

2、predict()方法:基于以上的训练,对预测样本T进行类别预测,因此只需要接收一个测试集T,该函数返回一个数组表示个测试样本的类别。

3、predict_proba():返回每个输入类别的概率,这与predict方法不同,predict方法返回的输入样本属于那个类别,但没有概率。使用此方法时,需要在初始化时,将 probability参数设置为True。

例如:

import numpy as np import matplotlib.pyplot as plt from sklearn import svm # we create 40 separable points np.random.seed(0) X = np.r_[np.random.randn(20, 2) - [2, 2], np.random.randn(20, 2) + [2, 2]] Y = [0] * 20 + [1] * 20 # fit the model clf = svm.SVC(kernel='linear',probability=True) clf.fit(X, Y) print(clf.predict_proba([[-0.1,0.7],[0.3,0.5]])) #result #[[ 0.41844015 0.58155985] #[ 0.34810738 0.65189262]]

如果初始化时不适用probability参数:

clf = svm.SVC(kernel='linear') clf.fit(X, Y) print(clf.predict([[-0.1,0.7],[0.3,0.5]])) # get the separating hyperplane w = clf.coef_[0] #输出的结果为:[1,1]

属性有哪些:

svc.n_support_:各类各有多少个支持向量

svc.support_:各类的支持向量在训练样本中的索引

svc.support_vectors_:各类所有的支持向量

以上这篇sklearn-SVC实现与类参数详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持编程之家。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐