正则化线性回归的方差与偏差!

利用正则化线性回归模型来了解偏差和方差的特征

实例:

首先根据数据建立线性回归模型,模型能够根据水库液位的变化来预测大坝的排水量,然后通过调整参数等方法来学习偏差和方差的一些特性。

1.概念

偏差:度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力;

方差:度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响(模型的稳定性)。

2.构建正则化线性模型

(1)载入数据

打开数据集 ex5data1.mat ,数据集包含了以下内容

名称 维度 X (12,1) y (12,1) Xtest (21,1) ytest (21,1) Xval (21,1) yval (21,1) 其中:

X,y 是 训练集 ,用来训练模型;

Xval,yval 是 交叉验证集 ,主要用来确定模型中的超参数,如正则化参数 lambda ;

Xtest,ytest 是 测试集 ,主要评估模型的泛化能力。

(2)将 X,y 可视化

横轴表示水位的变化,纵轴表示水流量,单纯的线性回归也能计算出模型,但那样做偏差特别大,拟合程度很差,即出现 欠拟合 。

正则化线性回归的方差与偏差!

Plot X and y

参考代码:def plotXY(self,x,y):
 plt.scatter(x,y,marker='x',color='r')
 plt.xlabel('Change in water level(x)')
 plt.ylabel('Water flowing out of the dam (y)')
 plt.show()

(3)计算正则化线性回归损失函数J

损失函数公式如下,注意正则化项是 从下标1 开始计算的,lambda就是正则化系数,它控制模型复杂度的"惩罚"力度。

正则化线性回归的方差与偏差!

Cost J

(4)计算正则化线性回归梯度Gradient

损失函数J对 theta0和theta1 的偏导数定义如下,即要计算的梯度公式。

正则化线性回归的方差与偏差!

Gradient

参考代码:def linearRegCostFunction(self,theta,lamda):
 m = x.shape[0]
 theta = theta.reshape((x.shape[1],1))
 cost = np.sum((x.dot(theta)-y)**2)/(2*m)
 regular = lamda/(2*m)*np.sum(theta[1::]**2)
 J = cost + regular
 return J
def linearRegGradient(self,lamda):
 m = y.shape[0]
 theta = theta.reshape((x.shape[1],1))
 grad = np.zeros((x.shape[1],1))
 grad[0] = 1/m*(x[:,0:1].T.dot(x.dot(theta)-y))
 grad[1::] = 1/m*(x[:,1::].T.dot(x.dot(theta)-y)) + lamda/m*theta[1::]
 return grad

(5)拟合线性回归

当我们根据上述公式计算损失函数和梯度得到正确的结果后,我们利用之前提到的 scipy.optimize 中的 minimize 函数来计算最优的 theta0 和 theta1 ,计算得到 theta 的结果后,将 lambda 的值设为 0 ,因为当前模型只有 theta1 和 theta2 两个值,模型很简单,没必要设置正则化项。

将得到的 theta 值同 X 相乘,得到预测的 y_predict ,将结果进行绘制,得到拟合的结果,如下图。

可以看出得到的结果并不好,在接下来的内容里,我们逐步讨论。

正则化线性回归的方差与偏差!

Fit X and y

参考代码:def plottrainingLine(self,y):
 theta = self.trainLinearReg(x,0)
 plt.scatter(self.x,self.y,marker='+',color='r')
 plt.plot(self.x,x.dot(theta),'--',linewidth=2)
 plt.xlabel('Change in water level (x)')
 plt.ylabel('Water flowing out of the dam (y)')
 plt.legend(['Trained','Original'])
 plt.show()

3.方差和偏差

(1)绘制学习曲线

绘制 训练集和交叉验证集的误差 与 训练样本数量 之间的学习曲线, 注意: 训练集误差和交叉验证集误差都没有计算正则化项,后面我们单独讨论正则化系数对误差造成的影响。

观察下图,随着样本数量逐渐增加,训练集和交叉验证集之间的误差仍然是较大的,这就反应了模型的 高偏差问题 ,即 欠拟合 。

因为模型太简单了,不能很好的拟合我们的数据,接下来我们将训练模型修改,建立一个8次多项式。

正则化线性回归的方差与偏差!

Learning curve for Linear Reg

参考代码:def learningCurve(self,xval,yval,lamda):
 m = x.shape[0]
 error_train = np.zeros((m,1))
 error_val = np.zeros((m,1))
 print("Training Examples   Train Error Cross Validation Error
")
 for i in range(m):
 theta = self.trainLinearReg(x[:1+i,:],y[:1+i],lamda)
 error_train[i] = self.linearRegCostFunction(theta,x[:1+i,0)
 error_val[i] = self.linearRegCostFunction(theta,0)
 print("        %d          %f      %f
"%(i,error_train[i],error_val[i]))
 return [error_train,error_val]
def plotLinerRCurve(self):
 error_train,error_val = self.learningCurve(self.x_plus_one,self.xval_plus_one,self.yval,0)
 plt.xlim([0,13])
 plt.ylim([0,150])
 plt.plot([i for i in range(12)],error_train,'r')
 plt.plot([i for i in range(12)],error_val,'b')
 plt.title('Learning curve for linear regression')
 plt.xlabel('Number of training examples')
 plt.ylabel('Error')
 plt.legend(['Train','Cross Validation'])
 plt.show()

(2)建立多项式回归模型

由于一次线性模型太简单,导致欠拟合,我们添加更多的"特征",做一个  次多项式。 具体最高项应该设置成几次这个问题,也是没有定式,只能说多尝试,找到较为合适的最高次数

参考代码

def polyFeatures(self,p):
 x_ploy = np.zeros((np.size(x),p),np.float32) # (12,8)
 m = np.size(x) # 12
 for i in range(m):
 for j in range(p):
 x_ploy[i,j] = x[i]**(j+1)
 return x_ploy

(3)绘制多项式回归模型拟合曲线

根据上一部分得到的多项式,因为同样是解决一个线性回归的问题,所以之前的损失函数和梯度计算函数仍可使用。

接下来利用优化函数计算得到最优的 theta 值,绘制拟合曲线,当设置正则化系数 lambda=0 的时候,意味这对模型复杂度没有任何处理,得到下图。

可以看出,我们的模型训练的非常好,基本穿过了每一个点,训练误差肯定很小,但是在一些极值外,函数迅速的上升和下降,这就意味这我们设计的模型 过拟合 了,虽然对训练数据拟合很好,但是不具有很好的泛化能力,也意味着模型不稳定。

正则化线性回归的方差与偏差!

polynomial Reg Fit with lambda=0

观察下 lambda=0 的情况下,训练误差和交叉验证误差的曲线,非常明显,训练误差几乎为0,而交叉验证误差却很大,训练集和交叉验证集之间的空隙充分反应了模型的 高方差问题 。

正则化线性回归的方差与偏差!

polynomial Reg Learning curve with lambda=0

此时我们让正则化系数为1,再重复上面的试验,我们再来看下你和曲线和学习曲线的图形。

一目了然,多项式模型很好的拟合了数据,训练误差和交叉验证集误差曲线都随着样本数量增加都 收敛于一个较小的值 ,因此我们认为当 lambda=1 时,得到的模型没有 高偏差和高方差的问题 ,实际上也是模型在方差和偏差之间进行了很好的 折中 。

正则化线性回归的方差与偏差!

polynomial Reg Fit with lambda=1

正则化线性回归的方差与偏差!

Learning curve with lambda=1

参考代码:def plotFit(self,mu,sigma,p):
 x = np.arange(np.min(x) - 15,np.max(x) + 25,0.05)
 x = x.reshape((-1,1))
 x_poly = self.polyFeatures(x,p)
 x_poly = x_poly - mu
 x_poly = x_poly/sigma
 x_poly = np.hstack([np.ones((x_poly.shape[0],1)),x_poly])
 plt.plot(x,x_poly.dot(theta),linewidth=2)
 plt.title('polynomial Regression Fit (lambda=0.00)')
 plt.xlabel('Change in water level (x)')
 plt.ylabel('Water flowing out of the dam (y)')
 plt.show()

(4)利用交叉验证集选择lambda

通过上面的试验,我们可以知道,lambda明显的影响着多项式正则化回归的训练误差和交叉验证误差。 当lambda为0甚至很小的时候,模型可以很好的拟合训练集,不具备好的泛化能力,当lambda很大的时候,模型又不能很好的拟合数据,出现欠拟合问题 ,那么到底怎样选择一个lambda的值呢?

我们根据上面的实例,选择10个lambda的值,分别绘制每个lambda对应的训练误差和交叉验证集误差,

进群:960410445  即可获取数十套PDF!

lambda_vec = {0; 0:001; 0:003; 0:01; 0:03; 0:1; 0:3; 1; 3; 10}

绘制得到下图, 从图中我们可以看出最好的lambda值出现在 3 附近,此时测试误差值大约3.8599,结果已经相当不错了。

正则化线性回归的方差与偏差!

Find the best lambda

参考代码:def validationCurveForLamdas(self,lamda_vec):
 error_train = np.zeros((len(lamda_vec),1))
 error_val = np.zeros((len(lamda_vec),1))
 print("Lambda      Train Error Validation Error
")
 for i in range(len(lamda_vec)):
 lamda = lamda_vec[i]
 theta = self.trainLinearReg(x,0)
 print("        %d          %f      %f
" % (i,error_val]

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


我最近重新拾起了计算机视觉,借助Python的opencv还有face_recognition库写了个简单的图像识别demo,额外定制了一些内容,原本想打包成exe然后发给朋友,不过在这当中遇到了许多小问题,都解决了,记录一下踩过的坑。 1、Pyinstaller打包过程当中出现warning,跟d
说到Pooling,相信学习过CNN的朋友们都不会感到陌生。Pooling在中文当中的意思是“池化”,在神经网络当中非常常见,通常用的比较多的一种是Max Pooling,具体操作如下图: 结合图像理解,相信你也会大概明白其中的本意。不过Pooling并不是只可以选取2x2的窗口大小,即便是3x3,
记得大一学Python的时候,有一个题目是判断一个数是否是复数。当时觉得比较复杂不好写,就琢磨了一个偷懒的好办法,用异常处理的手段便可以大大程度帮助你简短代码(偷懒)。以下是判断整数和复数的两段小代码: 相信看到这里,你也有所顿悟,能拓展出更多有意思的方法~
文章目录 3 直方图Histogramplot1. 基本直方图的绘制 Basic histogram2. 数据分布与密度信息显示 Control rug and density on seaborn histogram3. 带箱形图的直方图 Histogram with a boxplot on t
文章目录 5 小提琴图Violinplot1. 基础小提琴图绘制 Basic violinplot2. 小提琴图样式自定义 Custom seaborn violinplot3. 小提琴图颜色自定义 Control color of seaborn violinplot4. 分组小提琴图 Group
文章目录 4 核密度图Densityplot1. 基础核密度图绘制 Basic density plot2. 核密度图的区间控制 Control bandwidth of density plot3. 多个变量的核密度图绘制 Density plot of several variables4. 边
首先 import tensorflow as tf tf.argmax(tenso,n)函数会返回tensor中参数指定的维度中的最大值的索引或者向量。当tensor为矩阵返回向量,tensor为向量返回索引号。其中n表示具体参数的维度。 以实际例子为说明: import tensorflow a
seaborn学习笔记章节 seaborn是一个基于matplotlib的Python数据可视化库。seaborn是matplotlib的高级封装,可以绘制有吸引力且信息丰富的统计图形。相对于matplotlib,seaborn语法更简洁,两者关系类似于numpy和pandas之间的关系,seabo
Python ConfigParser教程显示了如何使用ConfigParser在Python中使用配置文件。 文章目录 1 介绍1.1 Python ConfigParser读取文件1.2 Python ConfigParser中的节1.3 Python ConfigParser从字符串中读取数据
1. 处理Excel 电子表格笔记(第12章)(代码下载) 本文主要介绍openpyxl 的2.5.12版处理excel电子表格,原书是2.1.4 版,OpenPyXL 团队会经常发布新版本。不过不用担心,新版本应该在相当长的时间内向后兼容。如果你有新版本,想看看它提供了什么新功能,可以查看Open
1. 发送电子邮件和短信笔记(第16章)(代码下载) 1.1 发送电子邮件 简单邮件传输协议(SMTP)是用于发送电子邮件的协议。SMTP 规定电子邮件应该如何格式化、加密、在邮件服务器之间传递,以及在你点击发送后,计算机要处理的所有其他细节。。但是,你并不需要知道这些技术细节,因为Python 的
文章目录 12 绘图实例(4) Drawing example(4)1. Scatterplot with varying point sizes and hues(relplot)2. Scatterplot with categorical variables(swarmplot)3. Scat
文章目录 10 绘图实例(2) Drawing example(2)1. Grouped violinplots with split violins(violinplot)2. Annotated heatmaps(heatmap)3. Hexbin plot with marginal dist
文章目录 9 绘图实例(1) Drawing example(1)1. Anscombe’s quartet(lmplot)2. Color palette choices(barplot)3. Different cubehelix palettes(kdeplot)4. Distribution
Python装饰器教程展示了如何在Python中使用装饰器基本功能。 文章目录 1 使用教程1.1 Python装饰器简单示例1.2 带@符号的Python装饰器1.3 用参数修饰函数1.4 Python装饰器修改数据1.5 Python多层装饰器1.6 Python装饰器计时示例 2 参考 1 使
1. 用GUI 自动化控制键盘和鼠标第18章 (代码下载) pyautogui模块可以向Windows、OS X 和Linux 发送虚拟按键和鼠标点击。根据使用的操作系统,在安装pyautogui之前,可能需要安装一些其他模块。 Windows: 不需要安装其他模块。OS X: sudo pip3
文章目录 生成文件目录结构多图合并找出文件夹中相似图像 生成文件目录结构 生成文件夹或文件的目录结构,并保存结果。可选是否滤除目录,特定文件以及可以设定最大查找文件结构深度。效果如下: root:[z:/] |--a.py |--image | |--cat1.jpg | |--cat2.jpg |
文章目录 VENN DIAGRAM(维恩图)1. 具有2个分组的基本的维恩图 Venn diagram with 2 groups2. 具有3个组的基本维恩图 Venn diagram with 3 groups3. 自定义维恩图 Custom Venn diagram4. 精致的维恩图 Elabo
mxnet60分钟入门Gluon教程代码下载,适合做过深度学习的人使用。入门教程地址: https://beta.mxnet.io/guide/getting-started/crash-course/index.html mxnet安装方法:pip install mxnet 1 在mxnet中使
文章目录 1 安装2 快速入门2.1 基本用法2.2 输出图像格式2.3 图像style设置2.4 属性2.5 子图和聚类 3 实例4 如何进一步使用python graphviz Graphviz是一款能够自动排版的流程图绘图软件。python graphviz则是graphviz的python实