8-神经网络

Charlie

1. 多层感知机MLP

多了hidden layer

1.1. 为什么需要隐藏层

隐藏层的神经元实际为特征检测算子,隐藏层神经元开始逐步发现刻画训练数据的突出特征。

1.2. 反向传播

  • 误差反传(Back-propagation of error)的要素
    • 误差定义
    • Delta规则
    • 激活函数
    • 反传学习的推到(链式法则)

1.2.1. 误差定义

感知机:误差直接求和,单层感知机中N=1

多层感知机:误差平方求和,防止正误差和负误差加起来为误差变小

1/2方便求导,不是必须

1.2.2. delta规则

  • 基于误差平面
  • 要求激活函数连续可微分
  • 误差平面是神经网络表示的函数在训练数据集上累计的误差。每个权值向量都对应误差平面的一个点

1.3. 反向传播算法 Back Propagation

  • 前向阶段:网络突触权值固定,输入信号在网络中正向一层一层传播,直到到达输出端,获得网络输出

  • 反向阶段:比较网络输出与期望输出,产生误差信号。误差信号通过网络反向传播,修正权值。

1.3.1. BP神经网络

  • 三层或以上的结构
  • 无反馈
  • 层内无相连
  • 输入+输出+隐藏层
  • 采用误差反向传播算法

1.4. 激活函数

[[7-神经元#3. 激活函数]]

  • Sigmoid
    • 导数
    • 优点:连续可导非线性
    • 缺点:不是0均值,导数变化范围很小,反向传播时链式法则不断相乘,梯度消失,神经网络不能太深
  • ReLU
    • 优点:不会饱和,解决了梯度消失问题;没有指数,计算简单
    • 缺点:非中心对称,负数部分梯度为0,导致参数不会更新

1.5. BP反向传播推导

image.png

1.6. 随机梯度下降

  • 最小化一个损失函数/目标函数

  • 梯度下降

    • 批量梯度下降
    • 随机梯度下降
    • Mini-batch随机梯度下降
      • Batch size

2. 自动编码器 AutoEncoder

image.png

x -> encoder -> latent space -> decoder -> x

  • 可以生成新的数据
  • 去噪

3. 径向基网络 RBF

感受野 Receptive Fields

受人视网膜启发

  • 高斯函数作为激活函数:
    • 神经元输出与输入数据何权值向量的距离成比例

image.png

RBF层激活规则:基于距离,局部匹配
MLP层激活规则:基于内积,全局匹配。计算时需要用到之前所有的x

image.png

RBF算法

求解的参数有三个:基函数的中心、方差和隐藏层到输出层的权值

  1. 定义RBF的中心
    • 随机选择数据点作为中心点
    • 均值
  2. 用高斯函数计算RBF节点的行为
  3. 用任意一种方式计算训练输出的权值
    • 用感知机
    • 计算RBF中心化的伪逆
  • 标题: 8-神经网络
  • 作者: Charlie
  • 创建于 : 2023-11-14 18:30:00
  • 更新于 : 2024-07-05 12:55:04
  • 链接: https://chillcharlie357.github.io/posts/c179ff56/
  • 版权声明: 本文章采用 CC BY-NC-SA 4.0 进行许可。
评论