使用Numpy实现卷积神经网络(推导前馈和反向传播)
Last updated
Was this helpful?
Last updated
Was this helpful?
卷积神经网络(CNN)很多人都听说过它的名字,我想知道它是前馈过程以及反向传播过程。 由于我只专注于神经网络部分,我不会解释卷积操作是什么,如果你不知道这个操作请从songho阅读这个“2D卷积的例子”.。
让我们保持简单,我们有四张(3 * 3)图像。 (LOL太小了,不能称它们为图像,但它会完成这项工作)。 正如您在真实标签数据(Y)中所看到的,如果图像有更多1,则结果输出会增加。 由于我们使用logistic sigmoid函数作为最终输出,因此max设置为1.1。
如上所述,我们有一个非常简单的网络结构
X → 3*3 图像
K →卷积操作(右边是矩阵形式,左边是矢量化形式)
绿色开始→结果图像(右矩阵形式,左是矢量化形式)
如果上面的图像让您感到困惑,请参阅下图。
基本上,3×3像素卷积操作可以被认为是将具有给定权重的位于不同图像中的某些像素相乘。
当我们在线性行中写卷积运算时,我们可以像上面一样表达每个节点。但是请注意橙色方框,它将L1表示为[ 1 * 4 ]向量。另外,请查看下面红色方框中的每个变量代表什么。
如上所示,每个节点表示卷积运算的结果图像。
标准SGD反向传播,上述操作没有什么特别之处。
有很多事情要发生,我将从最简单的一个开始
橙色盒子/橙色星星→我没有足够的空间来写所有的tanh ( )的导数,所以每个“dL”符号代表对tanh ( )的导数。
蓝色方框→同样没有足够的空间写下等式,无论向量之间的点积多么简单。
绿色方框星python代码实现中关于W(1,1 )的导数的第一部分,如下所示。
如上所示,我们转置W2,因此尺寸从(1,4)变为(4,1)。 我们将使用符号'g'来表示操作的结果。
绿盒星2→变量g和导数D1数组之间的点积,因此维数保持为( 1,4 )。
我跳过了导数符号,但写下了导数所需的实际变量。另外,请注意变量“g”代表青色(浅绿色)框中的变量。
仔细看看导数的所有方程,注意到什么了吗?(特别是仔细观察变量X )。这是卷积运算。我是什么意思?见下文。
整个导数可以如上所述写入,即输入图像和第1层中所有节点的导数之间的卷积运算。在python代码中,我们可以像下面这样实现它
这里有两点需要注意。
1→grad 1 part 1 整形:将向量整形为( 2 * 2 )图像
2→突出显示的部分正在旋转'grad_1_temp_1'变量......为什么......?
让我们仔细看看核,如下所示
如上所示,矩阵的形式如下:
— — — — — — — — — — — — | gdL1(2,2) | gdL1(2,1) | — — — — — — — — — —— — | gdL1(1,2) | gdL1(1,1) | — — — — — — — — — —— —
然而,我们的向量有这个顺序的变量
[ gdL1(1,1), gdL1(1,2), gdL1(2,1), gdL1(2,2) ]
所以当我们把上面的向量转换成矩阵时,它会如下所示。
— — — — — — — — — — — — | gdL1(1,1) | gdL1(1,2) | — — — — — — — — — —— — | gdL1(2,1) | gdL1(2,2) | — — — — — — — — — —— —
这就是我们在卷积运算之前旋转矩阵的原因
所以这个理论是正确的,但是有一个重要的方面我还没有提到。
如红框中所示,计算的梯度大约为
所以当更新权重时,我们需要再次转置计算的梯度,我在代码中没有这样做