深度神经网络

多层神经网络

一个常用的非线性函数叫 ReLU(rectified linear unit))。ReLU 函数对所有负的输入,返回 0;所有 x>0 的输入,返回 x。

两层神经网络

  1. 第一层由一组 X 的权重和偏差组成并通过 ReLU 函数激活。 这一层的输出会提供给下一层,但是在神经网络的外部不可见,因此被称为隐藏层
  2. 第二层由隐藏层的权重和偏差组成,隐藏层的输入即为第一层的输出,然后由 softmax 函数来生成概率。

坚持技术分享,您的支持将鼓励我继续创作!