softmax交叉熵损失函数求导
softmax经常被添加在分类任务的神经网络的输出层中,神经网络的反向传播中关键的步骤就是求导。
softmax函数:
一般在神经网络中,softmax可以作为分类任务的输出层。其实可以认为softmax输出的是几个类别选择的概率,比如我有一个分类任务,要分为三个类,softmax函数可以根据他们的相对大小,输出三个类别选取的概率,并且概率和为1。
公式:Si=∑kezkezi
Si 代表的是第i个神经元的输出,其实就是在输出后面套一个这个函数
首先是一个神经元的输出,一个神经元如下图:

神经元的输出设为:zi=∑jwijxij+b
其中 wij 是第i个神经元的第j个权重,b是偏移值, zi 表示该网络的第i个输出
给这个输出加上一个softmax函数,就是ai=∑kezkezi
其中 ai 代表softmax的第i个输出值,右侧就是套用了softmax函数
损失函数 loss function
在神经网络反向传播中,要求一个损失函数,这个损失函数其实表示的是真实值与网络的估计值的误差,知道误差了,才能知道怎样去修改网络中的权重。
损失函数可以有很多形式,这里使用的是交叉熵函数,主要是由于这个求导结果比较简单,易于计算,并且交叉熵解决某些损失函数学习缓慢的问题。交叉熵的函数是这样的:C=−∑iyilnai
其中 yi 表示真实的分类结果。
推导过程:
首先,我们要明确一下我们要求什么,我们要求的是我们的loss对于神经元输出( $ z_{i}$ )的梯度,即:∂zi∂C
根据复合函数求导法则:∂zi∂C=∑j(∂aj∂Cj∂zi∂aj)
这里为什么是 aj 而不是 ai ,这里要看一下softmax的公式了,因为softmax公式的特性,它的分母包含了所有神经元的输出,所以,对于不等于i的其他输出里面,也包含着 zi,所有的a都要纳入到计算范围中,并且后面的计算可以看到需要分为 i=j 和 i=j 两种情况求导。
下面我们一个一个推:
∂aj∂Cj=∂aj∂(−yjlnaj)=−yjaj1
第二个稍微复杂一点,我们先把他分为两种情况:
-
如果 i=j :
∂zi∂ai=∂zi∂(∑kezkezi)=(∑kezk)2∑kezkezi−(ezi)2=(∑kezkezi)(1−∑kezkezi)=ai(1−ai)
-
如果 i=j :
∂zi∂aj=∂zi∂(∑kezkezj)=−ezj(∑kezk1)2ezi=−aiaj
接下来,只需要组合两个式子:
∂zi∂C=∑j(∂aj∂Cj∂zi∂aj)=∑j=ψ˙(∂aj∂Cj∂zi∂aj)+∑i=j(∂aj∂Cj∂zi∂aj)
=∑j=y˙−yjaj1(−aiaj)+(−yiai1)(ai(1−ai))
=∑j=iaiyj+(−yi(1−ai))
=∑j=ψ˙aiyj+aiyi−yi
=ai∑jyj−yi
最后的结果看起来简单了很多,最后,针对分类问题,我们给定的结果 yi 最终只会哟一个类别是1,其他类别都是0,因此对于分类问题,这个梯度等于:
∂zi∂C=ai−yi