分页: 1 / 1
#1 问一个神经网络的backpropagation问题
发表于 : 2025年 6月 8日 17:44
由 monday
backpropagation大意是从最后一层优化weight和bias。
既然最后一层能够优化达到目的
为啥还需要继续往前优化?
#2 Re: 问一个神经网络的backpropagation问题
发表于 : 2025年 6月 8日 17:59
由 cloudpig
最后一层只是softmax线性函数。表达能力等于0。
一层一层往下去,加上非线性的算子,比如dropout,Relu,
还有resnet架构引入非线性短路机制。等等。
所有这些函数都是可导的。而且不需要人工推导导数,
都是机器求导。到了这个时候,就是大力出奇迹了。
懂?
#3 Re: 问一个神经网络的backpropagation问题
发表于 : 2025年 6月 8日 18:00
由 xiaoju
谁说的“最后一层能够优化达到目的”?
最后一层的表现能力只有一层而已,除非你本身就是微调一个预训练的网络,否则不可能只碰最后一层
monday 写了: 2025年 6月 8日 17:44
backpropagation大意是从最后一层优化weight和bias。
既然最后一层能够优化达到目的
为啥还需要继续往前优化?
#4 Re: 问一个神经网络的backpropagation问题
发表于 : 2025年 6月 8日 18:05
由 wildthing
monday 写了: 2025年 6月 8日 17:44
backpropagation大意是从最后一层优化weight和bias。
既然最后一层能够优化达到目的
为啥还需要继续往前优化?
It's a composite function. Back propagation is to dynamically adjust parameters to minimize testing errors. The idea is similar to finding the fixed point of a monotone function.
Each layer is a function. A network is a composed function. Optimization by partial gradient requires updates to function parameters at each level. Of course, you can always freeze some layers.