Andrew Ng Machine Learning - Week 四 & 5- Neural Networks
此文是斯坦福大学,机器学习界 superstar — Andrew Ng 所开设的 Coursera 课程:Machine Learning 的课程笔记。力求简洁,仅代表本人观点,不足之处希望大家探讨。
课程网址:https://www.coursera.org/learn/machine-learning/home/welcome
Week 1: Introduction 笔记:http://blog.****.net/ironyoung/article/details/46845233
Week 2:Linear Regression with Multiple Variables笔记:http://blog.****.net/ironyoung/article/details/47129523
Week 3:Logistic Regression & Regularization笔记:http://blog.****.net/ironyoung/article/details/47398843
Week 4 & 5:Neural Network
-
由XOR Problem想到
- 有一种经典的非线性问题:XOR,也就是异或。真值表如下:
0 0 | 0
1 0 | 1
1 1 | 0
0 1 | 1,| 左侧是输入x,y ,| 右侧是输出z
如果在二维坐标系上绘图,可以看出来仅利用一条直线是无法对这个问题分类的,也就是线性不可分问题。 - 如果利用逻辑回归的方法,可以枚举各种特征的出现可能,即
z=g(θ0+θ1x+θ2y+θ3xy+θ4x2y+...) - 继续想下去,如果基础特征量更多的话?
x1,x2,...,x100 就会出现过拟合的问题,同时带来极大的计算量。
例如,计算机视觉中处理一张照片,每个像素都需要一个数值表示。对于100*100像素值的图片,仅仅考虑二次项等级,就有特征数量为(10000)2/2 个(xy 与yx 相同,故除以2)。
于是,这章介绍的非线性分类器,神经网络(Neural Network,NN)就发挥了作用。
- 有一种经典的非线性问题:XOR,也就是异或。真值表如下:
-
人工神经网络
- 神经网络最初提出的初衷,是因为要模拟人类大脑的结构(很初级的模拟,因为人类对于自己大脑究竟是怎样都没有弄清楚)。通过多个感知机之间的输入输出,从而完成整体的智能行为。在人工神经网络中,“感知机”就是一个有着输入与输出功能的小单元,接收上一层的输入,将输出传给下一层。
- 人工神经网络是层级结构,某一层上的单元之间互相不会有输入输出关系,只和上一层或者下一层的单元产生数据传输关系。至少会有两层:输入层(input layer)与输出层(output layer),但是两层的神经网络可以解决的问题很少,一般都是三层或者三层以上,中间的这些层就称为“隐藏层(hidden layer)”,我们来看一个最简单的例子:
解释一下这张图,a(i) 表示的是第i 层上所有单元中的数值,a(i)j 表示的是第i 层上第j 个单元中的数值。
为什么不直接用x 来代替a(1) 呢?因为a(1) 中增加了a(1)0=1 ,在乘以权值后产生了 bias,也就是为下一层每个单元内数值增加一个常数偏移量。θ 是单元之间的传递权值,θ(i) 表示的是第i 层到(i+1) 层上所有单元之间的权值。如果第i 层上的单元个数为Si 个,所以得到θ(i) 的矩阵元素个数为Si+1∗(Si+1) ,+1是因为第i 层上增加的元素ai0 。g(x) 就是 Week 3 笔记中提到的 sigmoid 函数。
输出层得到:hθ(x)=a(3)=g(θ(2)a(2))=g(θ(2)∗g(θ(1)a(1))) - 由输入层,到隐藏层,最终到输出层。这是一次 forward propogation 过程。类似于逻辑回归,但是神经网络的输入是某个样本的所有基础特征,不需要考虑
x1x2,x2x3 这一类新加入的特征。
-
回到XOR Problem
-
先讲几个基础的利用神经网络进行二进制运算分类的问题:
-
二进制 AND
即为hθ(x)=g(−30+20x1+20x2) ,只有(x1,x2)=(1,1) 时返回值才为1,符合 AND 的操作结果。 -
二进制 OR
即为hθ(x)=g(−10+20x1+20x2) ,只有(x1,x2)=(0,0) 时返回值才为0,符合 OR 的操作结果。 - 二进制 NOT
-
- XOR 问题复杂一些,但是如果我们做了如下转换:
x1 XNORx2 = NOT(x1 XORx2) =(x1 ANDx2) OR(( NOTx1) AND( NOTx2))
变换的正确性,很容易通过真值表来验证。大家可以分别计算各个括号中的内容,然后通过 OR 连接起来。
我们将(x1 ANDx2) 的内容视为a(2)1 ,(( NOTx1) AND( NOTx2)) 的内容视为a(2)2
-
-
神经网络多类分类
- 神经网络处理多类的分类问题是很方便的。举个例子,区分手写数字时,有10个类别:0,1,2,……,9。对于某一个训练样本来说,有着特征组合
x(i)=(x(i)0,x(i)1,...) ,输出是y(i)=5 ,将其改为y(i)=(0000010000)T ,因此这个神经网络的输出层有10个单元。当输出层的10个单元全部取 0,意味着输入不是任何一种数字。 - 对于手写数字的识别,一直是业界的研究重点之一。视频中举了一篇经典的利用神经网络处理该问题的Paper,有兴趣的同学可以访问作者的个人主页查看Demo与Paper:Yann LeCun
- 神经网络处理多类的分类问题是很方便的。举个例子,区分手写数字时,有10个类别:0,1,2,……,9。对于某一个训练样本来说,有着特征组合
Week 4 的内容到此为止,Week 5的内容等从帝都回来再说啦~
编程作业答案:https://github.com/cnauroth/machine-learning-classd
版权声明:本文为博主原创文章,转载请联系我的新浪微博 @iamironyoung
- 1楼u0108500274天前 10:59
- 感谢小伙伴的分享,学习了`(*∩_∩*)′
- Re: yOung_One4天前 11:05
- 回复u010850027n共同努力,共同进步!还有下半部分,等下周再写完~