AI的下一步,应该是去掉back propagation
版主: verdelite, TheMatrix
-
- 论坛支柱
2024年度优秀版主
TheMatrix 的博客 - 帖子互动: 264
- 帖子: 13322
- 注册时间: 2022年 7月 26日 00:35
-
- 论坛支柱
2024年度优秀版主
TheMatrix 的博客 - 帖子互动: 264
- 帖子: 13322
- 注册时间: 2022年 7月 26日 00:35
#23 Re: AI的下一步,应该是去掉back propagation
eflame99 写了: 2024年 12月 31日 17:54 人类的学习发生在多个不同层面,在低层的神经网络有类似于back propagation的机制,例如反复使用可以促使邻近的神经元连接增强。最近大模型也涌现了一些类似于人类高级学习的能力比如in context learning 和 chain of thought,这些都不需要back propagation。
另外back propagation不能和gradient descent混为一谈。back propagation 是由neural network topology决定的,也可以很快。你说的局限主要是gradient descent。生物神经系统显然不使用gradient descent。

#25 Re: AI的下一步,应该是去掉back propagation
Chain of thought发生在inference time当然不会involve back propagation,和这个model怎么trained没有任何关系。你应该是个外行。
-
- 论坛支柱
2024年度优秀版主
TheMatrix 的博客 - 帖子互动: 264
- 帖子: 13322
- 注册时间: 2022年 7月 26日 00:35
#26 Re: AI的下一步,应该是去掉back propagation
我指的应该叫chain of thought training:eflame99 写了: 2025年 1月 1日 17:35 Chain of thought发生在inference time当然不会involve back propagation,和这个model怎么trained没有任何关系。你应该是个外行。

x1

#27 Re: AI的下一步,应该是去掉back propagation
我的理解,
现在的神经网络只能从端到端训练,我们不知道某个中间层的正确结果应该是什么。ResNet之类只是多了快捷连接,但本质上还是端到端的。
你说的thought,其实是个理论模型,类似于某个中间层的理论结果。如果有了这个信息,训练确实可以加速。
现在的神经网络只能从端到端训练,我们不知道某个中间层的正确结果应该是什么。ResNet之类只是多了快捷连接,但本质上还是端到端的。
你说的thought,其实是个理论模型,类似于某个中间层的理论结果。如果有了这个信息,训练确实可以加速。
#28 Re: AI的下一步,应该是去掉back propagation
我同意楼主在标题中表达的观点。但是我不同意帖子内容的观点。feedback和back propagation还是一样的。我觉得下一步是进化算法。
-
- 论坛支柱
2024年度优秀版主
TheMatrix 的博客 - 帖子互动: 264
- 帖子: 13322
- 注册时间: 2022年 7月 26日 00:35
#29 Re: AI的下一步,应该是去掉back propagation
“进化算法”是具体指evolutionary algorithm,还是泛指要改进算法?wdong 写了: 2025年 1月 3日 10:05 我同意楼主在标题中表达的观点。但是我不同意帖子内容的观点。feedback和back propagation还是一样的。我觉得下一步是进化算法。
-
- 论坛支柱
2024年度优秀版主
TheMatrix 的博客 - 帖子互动: 264
- 帖子: 13322
- 注册时间: 2022年 7月 26日 00:35
#30 Re: AI的下一步,应该是去掉back propagation
关于世界模型,你有没有什么想法?wdong 写了: 2025年 1月 3日 10:05 我同意楼主在标题中表达的观点。但是我不同意帖子内容的观点。feedback和back propagation还是一样的。我觉得下一步是进化算法。
#31 Re: AI的下一步,应该是去掉back propagation
你不知道就瞎乱说
BP当然是负反馈
一般反馈回路修正状态/输出,NN里面的状态就是模型的各个参数,稍微有点不同
当然你也可以用其他办法做负反馈
问题在于,有其他更好的吗?
也许以后都是1 bit模型会用上其他的反馈修正参数
#32 Re: AI的下一步,应该是去掉back propagation
世界模型的定义目前有点混乱。我喜欢的定义是,世界模型是agent模型的对偶。agent的输出作为世界模型的输入,产生的reward反馈给agent。具体怎么做我没有看法。
-
- 论坛支柱
2024年度优秀版主
TheMatrix 的博客 - 帖子互动: 264
- 帖子: 13322
- 注册时间: 2022年 7月 26日 00:35
#33 Re: AI的下一步,应该是去掉back propagation
寻找更高效的神经网络架构,这点我想大家想法是一样的。wdong 写了: 2025年 1月 3日 10:05 我同意楼主在标题中表达的观点。但是我不同意帖子内容的观点。feedback和back propagation还是一样的。我觉得下一步是进化算法。
feedback大概的形状是,直接连根线回到比较远的前层。相当于直接在现有神经网络架构上动手脚。改动的结果肯定是大的,速度肯定是快的。但是效果好不好要试探。
Evolutionary Algorithms,系统化的寻找架构改进方案。想法是好的。但也是不知道怎么走,另外,一个神经网络就已经很大开销了,如果population of 神经网络,可能开销不起。
#34 Re: AI的下一步,应该是去掉back propagation
直接连根线不就是resnet吗?
TheMatrix 写了: 2025年 1月 4日 14:04 寻找更高效的神经网络架构,这点我想大家想法是一样的。
feedback大概的形状是,直接连根线回到比较远的前层。相当于直接在现有神经网络架构上动手脚。改动的结果肯定是大的,速度肯定是快的。但是效果好不好要试探。
Evolutionary Algorithms,系统化的寻找架构改进方案。想法是好的。但也是不知道怎么走,另外,一个神经网络就已经很大开销了,如果population of 神经网络,可能开销不起。
-
- 论坛支柱
2024年度优秀版主
TheMatrix 的博客 - 帖子互动: 264
- 帖子: 13322
- 注册时间: 2022年 7月 26日 00:35
#35 Re: AI的下一步,应该是去掉back propagation
-
- 论坛支柱
2024年度优秀版主
TheMatrix 的博客 - 帖子互动: 264
- 帖子: 13322
- 注册时间: 2022年 7月 26日 00:35