问一个神经网络的backpropagation问题

对应老买买提的军事天地,观点交锋比较激烈。因为此版帖子太多,所以新帖不出现在首页新帖列表,防止首页新帖刷屏太快。

版主: Softfist

回复
monday(星期一)楼主
著名点评
著名点评
帖子互动: 65
帖子: 3429
注册时间: 2022年 8月 1日 07:08

#1 问一个神经网络的backpropagation问题

帖子 monday(星期一)楼主 »

backpropagation大意是从最后一层优化weight和bias。

既然最后一层能够优化达到目的

为啥还需要继续往前优化?
cloudpig(云上的猪)
知名作家
知名作家
帖子互动: 69
帖子: 946
注册时间: 2022年 7月 28日 15:55

#2 Re: 问一个神经网络的backpropagation问题

帖子 cloudpig(云上的猪) »

最后一层只是softmax线性函数。表达能力等于0。
一层一层往下去,加上非线性的算子,比如dropout,Relu,
还有resnet架构引入非线性短路机制。等等。
所有这些函数都是可导的。而且不需要人工推导导数,
都是机器求导。到了这个时候,就是大力出奇迹了。

懂?
xiaoju(可爱的龙猫)
论坛元老
论坛元老
帖子互动: 922
帖子: 24053
注册时间: 2023年 9月 5日 20:18

#3 Re: 问一个神经网络的backpropagation问题

帖子 xiaoju(可爱的龙猫) »

谁说的“最后一层能够优化达到目的”?

最后一层的表现能力只有一层而已,除非你本身就是微调一个预训练的网络,否则不可能只碰最后一层
monday 写了: 2025年 6月 8日 17:44 backpropagation大意是从最后一层优化weight和bias。

既然最后一层能够优化达到目的

为啥还需要继续往前优化?
wildthing
著名点评
著名点评
帖子互动: 259
帖子: 4395
注册时间: 2022年 7月 22日 14:25

#4 Re: 问一个神经网络的backpropagation问题

帖子 wildthing »

monday 写了: 2025年 6月 8日 17:44 backpropagation大意是从最后一层优化weight和bias。

既然最后一层能够优化达到目的

为啥还需要继续往前优化?
It's a composite function. Back propagation is to dynamically adjust parameters to minimize testing errors. The idea is similar to finding the fixed point of a monotone function.

Each layer is a function. A network is a composed function. Optimization by partial gradient requires updates to function parameters at each level. Of course, you can always freeze some layers.
司马光在《资治通鉴》中说日本人:'知小礼而无大义,拘小节而无大德。重末节而无廉耻,畏威而不怀德。强必盗寇,弱必卑伏'。
康熙皇帝在《康熙朝起居注》中这样评论日本人:“倭子国,最是反复无常之国。其人,甚卑贱,不知世上有恩谊,只一味慑于武威……故尔,不得对其有稍许好颜色。”

图片
回复

回到 “军事天地(Military)”