PyTorch神经网络基础

神经网络的主要原理包括一系列基本元素,即人工神经元或感知器。它包括几个基本输入,如:x1,x2 …… .. xn,如果总和大于激活潜在量,则产生二进制输出。

样本神经元的示意图如下所述 -

产生的输出可以认为是具有激活潜在量或偏差加权和。

典型的神经网络架构如下所述 -

输入和输出之间的层称为隐藏层,层之间的连接密度和类型是配置。例如,完全连接的配置使层L的所有神经元连接到L + 1的神经元。对于更明显的定位,我们只能将一个局部邻域(比如九个神经元)连接到下一层。上图中显示了两个具有密集连接的隐藏层。

神经网络的类型如下 -

前馈神经网络

前馈神经网络包括神经网络族的基本单元。这种类型的神经网络中的数据移动是通过当前隐藏层从输入层到输出层。一层的输出用作输入层,对网络架构中的任何类型的环路都有限制。

递归神经网络

递归神经网络是指数据模式在一段时间内发生变化的时间。在RNN中,应用相同的层来接受输入参数并在指定的神经网络中显示输出参数。

可以使用torch.nn包构建神经网络。

它是一个简单的前馈网络。它接受输入,一个接一个地通过几个层输入,然后最终给出输出。可以使用以下步骤进行神经网络的典型训练过程 -

  • 定义具有一些可学习参数(或权重)的神经网络。
  • 迭代输入数据集。
  • 通过网络处理输入。
  • 计算损失(输出距离正确多远)。
  • 将渐变传播回网络参数。
  • 通常使用下面给出的简单更新来更新网络的权重。
规则: weight = weight -learning_rate * gradient

上一篇:神经网络数学构建模块

下一篇:机器学习与深度学习

关注微信小程序
程序员编程王-随时随地学编程

扫描二维码
程序员编程王

扫一扫关注最新编程教程