机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要 重点思考排错:关于高级优化算法scipy.optimize.minimize 一:方差、偏差问题回顾 二:正则化和方差、偏差  三:数据加载、显示----后面可能都有问题 二:正则化线性回归代价函数 三:高级优化算法求解参数 四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

(一)代价函数和梯度求解

在代价函数和梯度求解中,我们要多次用到矩阵乘法。

1.numpy.matrix(不推荐)

所以一开始,我使用了numpy.matrix()方法,将我传入的θ、X、y等向量(是numpy.ndarray数组类型),全部转换为matrix类型,进行矩阵运算

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

但是在使用过程中,发现编译器并不推荐使用该方法,因为:

1.我们需要将传入的参数进行转换,降低了效率

2.如果一个程序里面既有matrix 又有array,会让人脑袋大。但是如果只用array,你不仅可以实现matrix所有的功能,还减少了编程和阅读的麻烦。

2.numpy.ndarray+@---解决部分问题,但是使用的方法有点问题

使用过程中,我发现对于numpy.ndarray类型数据,如果要进行矩阵运算,那么数组必须是二维数组[[]]

这里我经常用@将ndarray进行矩阵运算

但是在使用过程中,发现一个错误用法。就是我们如果对于一个ndarray类型数据,是一维数组,那么似乎矩阵运算并不能按照我们的想法进行:

1.比如进行转置T操作:

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

2.比如进行矩阵乘法操作:

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

可以看到,虽然结果是一样的,但是返回的分别是二维和一维数组。而且我们对一维数组的转置,存在部分疑问?因为转置后还是行向量显示,结果却是按照列向量计算

3.numpy.ndarray+dot点乘处理,避免2中问题 

当我们传入两个一维数组时:

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

是进行点乘处理的。 

当我们传入一个二维和一维数组时:---两个向量必须同维度(得到的结果是矩阵乘积)

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

总结:推荐使用第三种用法---其中另一个原因看下面

(二)高级优化算法scipy.optimize.minimize解析

调用:

scipy.optimize.minimize(fun, x0, args=(), method=None, jac=None, hess=None, hessp=None, bounds=None, constraints=(), tol=None, callback=None, options=None)

参数:

fun :优化的目标函数

x0 :初值,一维数组,shape (n,)

args : 元组,可选,额外传递给优化函数的参数

method:求解的算法,选择TNC则和fmin_tnc()类似

jac:返回梯度向量的函数

返回:

返回优化结果对象,x:优化问题的目标数组。success: True表示成功与否,不成功会给出失败信息。

注意重点:

1.我们返回的参数θ向量就是返回的优化结果对象x。

2.我们返回的优化结果对象x是一个numpy.ndarray类型的一维数组,所以我们可以认为,在我们中间进行计算过程中:

我们使用梯度求解函数求解出来的θ参数向量也应该是一个一维数组,同时在优化函数中会将梯度求解结果作为参数传入到代价函数中,求解代价误差。所以在中间黑盒过程中,默认传递的就是一维数组(上面参数中说明了,因为我们传入的θ向量默认是放入x0中)。所以对于我们写的求解代价函数,传入的θ参数也应该是一维数组。

3.我们只提供了一个x0和args参数,所以我们要保证我们的fun传入的代价函数和jac传入的梯度求解函数的参数保持一致

4.我们可以使用一个函数,返回梯度和代价误差,只需要设置jac=True即可

minimize(fun=backporp,x0=theta_param,args=(input_size,hidden_size,num_labels,X,y_onehot,1),method='TNC',jac=True,options={'maxiter':250})

(三)补充fmin_tnc()

有约束的多元函数问题,提供梯度信息,使用截断牛顿法。

调用:

scipy.optimize.fmin_tnc(func, x0, fprime=None, args=(), approx_grad=0, bounds=None, epsilon=1e-08, scale=None, offset=None, messages=15, maxCGit=-1, maxfun=None, eta=-1, stepmx=0, accuracy=0, fmin=0, ftol=-1, xtol=-1, pgtol=-1, rescale=-1, disp=None, callback=None)

最常使用的参数:

func:优化的目标函数

x0:初值

fprime:提供优化函数func的梯度函数,不然优化函数func必须返回函数值和梯度,或者设置approx_grad=True

approx_grad :如果设置为True,会给出近似梯度

args:元组,是传递给优化函数的参数

返回:

x : 数组,返回的优化问题目标值

nfeval : 整数,function evaluations的数目

在进行优化的时候,每当目标优化函数被调用一次,就算一个function evaluation。在一次迭代过程中会有多次function evaluation。这个参数不等同于迭代次数,而往往大于迭代次数。

rc : int,Return code, see below 

一:方差、偏差问题回顾

(一)高偏差(欠拟合)

1.当m较小时:比如m=1,这是完全拟合,所以训练误差从0开始。当逐渐增大样本数量,训练误差逐渐增大。同样,当m较小时,验证误差最大,当m逐渐增大,则验证误差减小。

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

2.当我们增大样本容量时:对于这组数据这是拟合得最好得直线,当我们增大样本容量后,直线拟合得越来越好---即J_cv逐渐减小

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中) 

总结: 

训练误差一开始也是很小的,而在高偏差的情况下,你会发现训练集误差会逐渐增大,最后接近交叉验证误差

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

(二)高方差(过拟合)

1.训练误差---当训练样本越多的时候,就越难把训练集数据拟合得更好。但总的来说训练集误差还是很小得

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

2.交叉验证误差---过拟合下(泛化能力很差),验证误差将会一直很大,尽管随着样本增大,但是总的来说还是很大

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

其特点是:在训练误差和交叉验证误差之间有一段很大的差距。

当我们增大样本数量时,训练误差会增大,而验证误差会减少。所以高方差下,增大样本数量还是有用的。

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

(三)简单总结

训练集误差和交叉验证集误差近似时:偏差/欠拟合
交叉验证集误差远大于训练集误差时:方差/过拟合

二:正则化和方差、偏差 

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

(一)当我们设置入较大时

比如入=1000,这时θ_1,...,θ_m都将受到很大的惩罚。所以θ_1,...,θ_m几乎都等于0.这时H_θ(x)≈θ_0 

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

因此这个假设处于高偏差,对数据集严重欠拟合。

(二)设置入较小时

与之对应的另一种情况是,如果我们的lambda值很小,比如说lambda的值等于0的时候,在这种情况下,如果我们要拟合一个高阶多项式的话,那么此时我们通常会处于过拟合的情况。

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

(三)合适大小入

只有当我们取一个中间大小的,既不大也不小的lambda值时,我们才会得到一组合理的,对数据刚好拟合的theta参数值

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

(四)总结

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中) 

 • 当入较小时,训练集误差较小(过拟合)而交叉验证集误差较大--高方差

 • 随着入的增加,训练集误差不断增加(欠拟合),而交叉验证集误差则是先减小后增加---高偏差

 注意:训练集误差是指内部数据集与模型的拟合程度(所以当入小的时候,模型虽然是过拟合,但是与原来训练集的拟合程度还是不错的),验证集误差是指新的数据集与原始模型的平均误差平方和(当入过小或者过大,都会导致误差太大)。

三:数据加载、显示----后面可能都有问题

(一)代码实现数据加载、显示

import matplotlib.pyplot as plt
import numpy as np
import scipy.io as sio
import scipy.optimize as opt


data = sio.loadmat("ex5data1.mat")
X = data['X']
y = data['y']
Xval = data['Xval']
yval = data['yval']
Xtest = data['Xtest']
ytest = data['ytest']

plt.figure()
plt.scatter(X,y,c='r',marker='o')
plt.xlabel("Change in water level (x)")
plt.ylabel("Water flowing out of the dam (y)")
plt.show()

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

(二)数据展示

print("X.shape X")
print(X.shape)
print(X)
print("y.shape y")
print(y.shape)
print(y)
print("----------------------")
X.shape X
(12, 1)
[[-15.93675813]
 [-29.15297922]
 [ 36.18954863]
 [ 37.49218733]
 [-48.05882945]
 [ -8.94145794]
 [ 15.30779289]
 [-34.70626581]
 [  1.38915437]
 [-44.38375985]
 [  7.01350208]
 [ 22.76274892]]
----------------------
y.shape y
(12, 1)
[[ 2.13431051]
 [ 1.17325668]
 [34.35910918]
 [36.83795516]
 [ 2.80896507]
 [ 2.12107248]
 [14.71026831]
 [ 2.61418439]
 [ 3.74017167]
 [ 3.73169131]
 [ 7.62765885]
 [22.7524283 ]]
print("----------------------")
print("Xval.shape yval.shape")
print(Xval.shape,yval.shape)
print("----------------------")
print("Xtest.shape ytest.shape")
print(Xtest.shape,ytest.shape)

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

二:正则化线性回归代价函数

(一)代价函数

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

def reg_cost(theta,X,y,lamda=1):
    m = X.shape[0]
    return 1/(2*m)*np.sum(np.power(X@theta.T-y,2))+lamda/(2*m)*np.sum(np.power(theta,2))
cost = reg_cost(theta,X,y,0)
print(cost)

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

(二)正则化梯度求解----主要出错地点

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

def reg_gradient(theta,X,y,lamda=1):
m = X.shape[0]
error = X@theta.T-y
theta_grad = error.T@X/m
theta_grad[0,1:] += theta[0,1:]*lamda/m
return theta_grad
grad = reg_gradient(theta,X,y,0)
print(grad)

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

grad = reg_gradient(theta,X,y,1)
print(grad)

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

三:高级优化算法求解参数

#导入数据
data = sio.loadmat("ex5data1.mat")
X = data['X']
y = data['y']
Xval = data['Xval']
yval = data['yval']
Xtest = data['Xtest']
ytest = data['ytest']

theta = np.array([np.ones(2)])
X = np.c_[np.ones(X.shape[0]),X]

res = opt.minimize(fun=reg_cost,x0=theta,args=(X,y,1),method="TNC",jac=reg_gradient,options={'disp':True})
theta_new = res.get('x')
plt.figure()
plt.scatter(X[:,1],y,c='b',marker='o')
plt.plot(X[:,1],X[:,1]*theta_new[1]+theta_new[0])
plt.xlabel("Change in water level (x)")
plt.ylabel("Water flowing out of the dam (y)")
plt.show()

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

这里就已经出错了,最后求解的参数向量不对!!! 

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

注意: 

1.使用训练集的子集来拟合数据--获取本次循环最优参数

2.在计算训练代价(误差)和交叉验证代价(误差)时,不需要使用正则化

3.使用相同的验证集自己来计算训练代价

(一)获取训练误差和验证误差

def learning_curve(X,y,Xval,yval,lamda):
    m = X.shape[0]

    #训练集误差和验证集误差
    error_train = np.zeros(m)
    error_val = np.zeros(m)

    #从一个训练样本开始逐个增加
    for i in range(m):
        X_temp = X[:i+1,:]  #获取新的临时训练样本集---注意事项1
        y_temp = y[:i+1,:]
        #获取当前训练集样本下的最优参数θ向量
        res = opt.minimize(fun=reg_cost,x0=theta,args=(X_temp,y_temp,lamda),method="TNC",jac=reg_gradient,options={'disp':False})
        #根据上面获得的最优参数向量,我们获取训练集误差---注意:训练集误差的数据集来自于我们新的训练集
        theta = np.array([res.x])
        error_train[i] = reg_cost(theta,X_temp,y_temp,lamda)
        #验证集误差,数据集来自于全部验证集
        error_val[i] = reg_cost(theta,Xval,yval,lamda)  #每次都是将所有验证集进行计算误差----注意事项3

    return error_train,error_val
#绘制学习曲线
error_train,error_val = learning_curve(X,y,Xval,yval,0)  #设置lamda为0,不进行正则化处理---注意事项2
print("error_train:
",error_train)
print("error_val:
",error_val)

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

(二)绘制学习曲线 

#绘制学习曲线
error_train,error_val = learning_curve(X,y,Xval,yval,0)
plt.figure()
plt.plot(np.arange(X.shape[0]),error_train,np.arange(X.shape[0]),error_val)
plt.title("Learning Curve for linear regression")
plt.xlabel("Number of Training Examples")
plt.ylabel("Error")
plt.legend(['Train','Cross Validation'])
plt.show()

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

这里就发现了,和我们真正要展示的学习曲线有所差异:

机器学习作业---偏差和方差(线性回归)错误反例,但是理清了代码思路,很重要
重点思考排错:关于高级优化算法scipy.optimize.minimize
一:方差、偏差问题回顾
二:正则化和方差、偏差 
三:数据加载、显示----后面可能都有问题
二:正则化线性回归代价函数
三:高级优化算法求解参数
四:绘制学习曲线---开始明显出错(只要出现错误是在梯度求解函数中)

太过混乱,不进行修改!!!!