backpropagation大意是从最后一层优化weight和bias。
既然最后一层能够优化达到目的
为啥还需要继续往前优化?
问一个神经网络的backpropagation问题
版主: Softfist
#2 Re: 问一个神经网络的backpropagation问题
最后一层只是softmax线性函数。表达能力等于0。
一层一层往下去,加上非线性的算子,比如dropout,Relu,
还有resnet架构引入非线性短路机制。等等。
所有这些函数都是可导的。而且不需要人工推导导数,
都是机器求导。到了这个时候,就是大力出奇迹了。
懂?
一层一层往下去,加上非线性的算子,比如dropout,Relu,
还有resnet架构引入非线性短路机制。等等。
所有这些函数都是可导的。而且不需要人工推导导数,
都是机器求导。到了这个时候,就是大力出奇迹了。
懂?
#4 Re: 问一个神经网络的backpropagation问题
It's a composite function. Back propagation is to dynamically adjust parameters to minimize testing errors. The idea is similar to finding the fixed point of a monotone function.
Each layer is a function. A network is a composed function. Optimization by partial gradient requires updates to function parameters at each level. Of course, you can always freeze some layers.