推导梯度,其实是非常简单的,就是一个复合函数求导,不要害怕,高数那点东西够用了,链式法则也很简单的;博主自己推导了一下softmaxLoss,搜了一大遍,网上没有完整的推导,可能太简单了,自己就推导了一下,详细的过程见下文:
梯度更新的过程其实就是前向计算出来的值,反向的时候就可以直接使用,链式法则就是这样用的;
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:目标检测之Loss:softmaxLoss反向传播 - Python技术站
推导梯度,其实是非常简单的,就是一个复合函数求导,不要害怕,高数那点东西够用了,链式法则也很简单的;博主自己推导了一下softmaxLoss,搜了一大遍,网上没有完整的推导,可能太简单了,自己就推导了一下,详细的过程见下文:
梯度更新的过程其实就是前向计算出来的值,反向的时候就可以直接使用,链式法则就是这样用的;
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:目标检测之Loss:softmaxLoss反向传播 - Python技术站