week_4 Andrew Ng 机器学习笔记---by Orangestar

week_4
Andrew Ng 机器学习笔记---by Orangestar

Week4_Neural Networks : Representation

1. Non-linear Hypotheses

当特征量非常多的时候,训练分类器is not a good idea

会产生非常多的特征量
而,神经网络则可以在特征量非常大的时候,works well

2. Neurons and the Brain

神经网络的最初目的是,模仿人脑

week_4
Andrew Ng 机器学习笔记---by Orangestar

大脑的神奇之处

3.  Model Representation I(一些术语)

如何表示神经网络?

人脑中的神经网络
week_4
Andrew Ng 机器学习笔记---by Orangestar

week_4
Andrew Ng 机器学习笔记---by Orangestar

至于电脑上面的神经模型,我们通过非常简单的构造来模拟神经元的工作

一个模型例子

树突,轴突

week_4
Andrew Ng 机器学习笔记---by Orangestar

一些术语:

Sigmoid(logistic) activation function:激励函数
( heta)我们可能叫它叫做一个东西的权重,也叫参数
其中我们而外加的x_0,可以叫做偏执单元bias unit,
偏置单元一般都设为1,再通过需要进行调整

上面的只是一个十分简单的神经元模型
接下来看看更复杂的及其一些定义术语

从左到右,分别叫做:
输入层,隐藏层,输出层

输入层/输出层:顾名思义,输出或者输入参数
隐藏层:训练集中看不到的层
事实上,所有非输出层和输入层的,都叫隐藏层

那么,如何计算?
如下图 计算步骤

week_4
Andrew Ng 机器学习笔记---by Orangestar

为什么是3*4?
因为,bias, heta_0,和x_0没有写出来!

所以,总结
如果网络有(s_j) 个单元在 j层上,(s_{j+1})在j+1上,
( heta^{(j)}) 的维数就是(s_{j+1} * (s_j+1))
就是,( heta^{(j)})是射线,能设多少条线都不会计算吗!?

可以联想映射的内容

4. Model Representation II (展示一个向量化的实现方法)(前向传播)

在之前,计算可以表示为向量计算
Forward propagation: Vectorized implementation

前向传播!
week_4
Andrew Ng 机器学习笔记---by Orangestar

向量化实现方法
由线性代数知识不难理解!

就是把多项式方程组用矩阵或者向量来表示

  • Other network architectures
    architectures指的是神经元的架构
    week_4
Andrew Ng 机器学习笔记---by Orangestar


    本节总结
    week_4
Andrew Ng 机器学习笔记---by Orangestar

    这是上节的计算神经元的方法
    这节我们用向量来计算
    定义了一个新的变量(z^{(j)}_k)
    其中,J代表第几层。k代表第几个节点node

    就是说:(举个小栗子)week_4
Andrew Ng 机器学习笔记---by Orangestar

然后,week_4
Andrew Ng 机器学习笔记---by Orangestar

所以,用向量来表示就是:
week_4
Andrew Ng 机器学习笔记---by Orangestar

其中,x就是第一层(输入层)的向量表示。只不过换了一个符号。(x = a^{(1)})
复写方程为:(z^{(j)} = Theta^{(j-1)}a^{(j-1)})

注释:
*我们可以将矩阵$Theta^{(j-1)} $ 乘与a(j-1),来得到z(j)

[$Theta{(j-1)} $]: 维数为×(n+1),其中s_j是激励节点的数量)

如图:week_4
Andrew Ng 机器学习笔记---by Orangestar

然后,可以得到a^(j)
week_4
Andrew Ng 机器学习笔记---by Orangestar

计算完之后,可以加上偏置项
week_4
Andrew Ng 机器学习笔记---by Orangestar

然后:
week_4
Andrew Ng 机器学习笔记---by Orangestar

5. 神经元的具体例子1

为什么神经网络可以用来学习复杂的非线性假设?

在下面这个例子中,x_1和x_2只有0,1两个取值。
所以,week_4
Andrew Ng 机器学习笔记---by Orangestar

y只有2个取值
OR或,AND与,XOR异或,NOR或非,NAND与非,XNOR异或非 异或只当两个数相同取0,不同取1

所以,图像为:
week_4
Andrew Ng 机器学习笔记---by Orangestar

  • 下面讲解其中的神经元(与)其他的大同小异
    week_4
Andrew Ng 机器学习笔记---by Orangestar

    线上的数值为权重
    右下角的表格叫做真值表

6.如何计算非线性的假设函数

先看一个NOT X_1的神经元
week_4
Andrew Ng 机器学习笔记---by Orangestar

嘛...差不多就这种感觉,要建立逻辑电路差不多,就把加权附上去,按照你想让它怎么样

然后,我们可以将逻辑神经元进行组合:
week_4
Andrew Ng 机器学习笔记---by Orangestar

如图,组合为一个x_1 XNOR x_2
这样就可以计算出一个很复杂的函数
可以用矩阵来表示:week_4
Andrew Ng 机器学习笔记---by Orangestar

然后可以conbine起来。做出一个更复杂的逻辑门:week_4
Andrew Ng 机器学习笔记---by Orangestar

其中:week_4
Andrew Ng 机器学习笔记---by Orangestar

7. Multiclass Classification 用神经网络做多类别分类

直观感受,只要设多几个分类器就行
week_4
Andrew Ng 机器学习笔记---by Orangestar

多分类的时候,一般y值为如图所示,而不是简单的数值,因为这样更容易表示!