想到了目前LLM训练的一个巨大瑕疵

STEM版,合并数学,物理,化学,科学,工程,机械。不包括生物、医学相关,和计算机相关内容。

版主: verdeliteTheMatrix

Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 517
帖子: 23650
注册时间: 2022年 7月 24日 17:21

#1 想到了目前LLM训练的一个巨大瑕疵

帖子 Caravel楼主 »

回顾大模型训练的历史是

先预训练一个巨大的language model
然后再训练来对话2022年出现ChatGPT
然后2024年出现长链推理的推理模型

但是人则不是这样,
小孩没有学习所有的词汇,
再去学习说话和推理
而是先学了几个词,就开始说话,然后大人再多教一些
再多学会一点,推理更强一点。
这样的好处是模型可以保持学习新的东西。

我猜测未来几年,会有人探索在小预训练模型上面训练推理能力。我认为小模型也可以推理。就像小孩一样,虽然有点childish,但是也可以有回溯反思。推理能力甚至在语言之前就有。

标签/Tags:
wdong(万事休)
见习作家
见习作家
帖子互动: 92
帖子: 410
注册时间: 2023年 11月 13日 15:13

#2 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 wdong(万事休) »

:twisted: 你说的这些问题都有人在探索。搜TinyStories。但是就像另外一个帖子讨论的,人其实并没有多少逻辑思维和reasoning的能力,对于大方向在哪儿绝大多数人是没感觉的,只能乱碰乱撞,偶尔撞上了再回过头来圆故事。大多数人不但没有思维能力,而且眼界狭窄,而且还很短视,只愿意干明确见得到好处的方向,很多东西碰一下就完了不往下挖了。其实开挖的时候本来也就是只想碰一下而已。所以科学发展会这么难。

人其实不如AI。活在人的身体里很难受。
x1 图片
wass
论坛精英
论坛精英
2024年度优秀版主
wass 的博客
帖子互动: 640
帖子: 6583
注册时间: 2022年 7月 23日 22:13

#3 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 wass »

人是纯RL,DL将来可以一样学习,好不好不知道
wass
论坛精英
论坛精英
2024年度优秀版主
wass 的博客
帖子互动: 640
帖子: 6583
注册时间: 2022年 7月 23日 22:13

#4 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 wass »

20年后,一个纽扣可以装马斯克现在的20万卡
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 517
帖子: 23650
注册时间: 2022年 7月 24日 17:21

#5 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 Caravel楼主 »

wdong 写了: 2025年 3月 2日 19:28 :twisted: 你说的这些问题都有人在探索。搜TinyStories。但是就像另外一个帖子讨论的,人其实并没有多少逻辑思维和reasoning的能力,对于大方向在哪儿绝大多数人是没感觉的,只能乱碰乱撞,偶尔撞上了再回过头来圆故事。大多数人不但没有思维能力,而且眼界狭窄,而且还很短视,只愿意干明确见得到好处的方向,很多东西碰一下就完了不往下挖了。其实开挖的时候本来也就是只想碰一下而已。所以科学发展会这么难。

人其实不如AI。活在人的身体里很难受。
哈哈 看来idea真是很cheap

我你说了看了一下tinystories,

确实是和我想的类似

但我还有一个想法就是慢慢增加词汇量

可以观察model是怎么获得新能力的
sporky
知名作家
知名作家
帖子互动: 97
帖子: 878
注册时间: 2023年 9月 19日 18:58

#6 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 sporky »

wass 写了: 2025年 3月 2日 20:16 20年后,一个纽扣可以装马斯克现在的20万卡
装啥20万卡,装一万卡就可以了
头像
TheMatrix
论坛支柱
论坛支柱
2024年度优秀版主
TheMatrix 的博客
帖子互动: 253
帖子: 13128
注册时间: 2022年 7月 26日 00:35

#7 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 TheMatrix »

Caravel 写了: 2025年 3月 2日 15:08 回顾大模型训练的历史是

先预训练一个巨大的language model
然后再训练来对话2022年出现ChatGPT
然后2024年出现长链推理的推理模型

但是人则不是这样,
小孩没有学习所有的词汇,
再去学习说话和推理
而是先学了几个词,就开始说话,然后大人再多教一些
再多学会一点,推理更强一点。
这样的好处是模型可以保持学习新的东西。

我猜测未来几年,会有人探索在小预训练模型上面训练推理能力。我认为小模型也可以推理。就像小孩一样,虽然有点childish,但是也可以有回溯反思。推理能力甚至在语言之前就有。
大模型的训练是快速重走人类进化史。训练的结果是人类一出生就具备的。而人类小孩的学习是事例学习,和大模型训练不是一个阶段的事情,不应该类比。人类小孩的学习和大模型in-context learning可以类比一下。
x1 图片
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 517
帖子: 23650
注册时间: 2022年 7月 24日 17:21

#8 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 Caravel楼主 »

TheMatrix 写了: 2025年 3月 2日 21:34 大模型的训练是快速重走人类进化史。训练的结果是人类一出生就具备的。而人类小孩的学习是事例学习,和大模型训练不是一个阶段的事情,不应该类比。人类小孩的学习和大模型in-context learning可以类比一下。
我认为人类进化史提供的应该是网络结构和训练方法

大部分权重都是后天学习的

但是人类的学习并不是大量预训练加强化学习

而是每天都在预训练,然后同时也强化学习

不是学习了天下所有文本在开口说话

而是边学边说 一开始说话有点childish

王子公主小红帽大灰狼

渐渐学习新的东西
wdong(万事休)
见习作家
见习作家
帖子互动: 92
帖子: 410
注册时间: 2023年 11月 13日 15:13

#9 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 wdong(万事休) »

Caravel 写了: 2025年 3月 2日 21:25 哈哈 看来idea真是很cheap

我你说了看了一下tinystories,

确实是和我想的类似

但我还有一个想法就是慢慢增加词汇量

可以观察model是怎么获得新能力的
比你说的更加先进的技术我已经想出来了。
pathdream(葱韭集团团长)
论坛元老
论坛元老
帖子互动: 1363
帖子: 28800
注册时间: 2022年 7月 25日 11:42

#10 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 pathdream(葱韭集团团长) »

sporky 写了: 2025年 3月 2日 21:31 装啥20万卡,装一万卡就可以了
29个一万卡
草你特铐谱祖宗十八代加后十八代 你踏马的去死吧
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 517
帖子: 23650
注册时间: 2022年 7月 24日 17:21

#11 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 Caravel楼主 »

wdong 写了: 2025年 3月 2日 22:08 比你说的更加先进的技术我已经想出来了。
不改预训练不行啊

我觉得目前在线学习不work的原因是预训练学的太多了

全天下的书都看过

那再多看一本进步不大了
bhold
见习作家
见习作家
帖子互动: 55
帖子: 341
注册时间: 2022年 10月 4日 18:41

#12 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 bhold »

Caravel 写了: 2025年 3月 2日 15:08 但是人则不是这样,
小孩没有学习所有的词汇,
再去学习说话和推理
而是先学了几个词,就开始说话,然后大人再多教一些
再多学会一点,推理更强一点。
这样的好处是模型可以保持学习新的东西。

还有一点别忽视了
大人和小孩子很多是靠眼睛和气氛学的
所谓言传身教
有时候一个手势一个脸色 比说半个小时都管用
这个是机器所完全没有的
wdong(万事休)
见习作家
见习作家
帖子互动: 92
帖子: 410
注册时间: 2023年 11月 13日 15:13

#13 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 wdong(万事休) »

Caravel 写了: 2025年 3月 2日 22:10 不改预训练不行啊

我觉得目前在线学习不work的原因是预训练学的太多了

全天下的书都看过

那再多看一本进步不大了
纸上得来终觉浅,绝知此事要躬行。
现在的框架不完善,但也不是那么差。基本的要素都有了。
否则不会干活。问题是还没融会贯通。提高的余地还很大。

书读得多的人会对人类的思维能力有过度的自信。但是碰到新问题一律抓瞎。现有的这些东西,都是零零星星一点一点碰出来的,并不是某个极聪明的人设计出来的。所以虽然要素都有了,其实大家都还蒙在鼓里。这就是现在的机会。每个人都可以按自己的视角去解读这些东西。1000个人10000个人去试,自然会有人找到出路。但是是这个人聪明吗?他只是运气好。
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 517
帖子: 23650
注册时间: 2022年 7月 24日 17:21

#14 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 Caravel楼主 »

wdong 写了: 2025年 3月 2日 22:29 纸上得来终觉浅,绝知此事要躬行。
现在的框架不完善,但也不是那么差。基本的要素都有了。
否则不会干活。问题是还没融会贯通。提高的余地还很大。

书读得多的人会对人类的思维能力有过度的自信。但是碰到新问题一律抓瞎。现有的这些东西,都是零零星星一点一点碰出来的,并不是某个极聪明的人设计出来的。所以虽然要素都有了,其实大家都还蒙在鼓里。这就是现在的机会。每个人都可以按自己的视角去解读这些东西。1000个人10000个人去试,自然会有人找到出路。但是是这个人聪明吗?他只是运气好。
是的,哈哈,我是纸上谈兵,乱弹一起。行不行还得能训练出来结果。
wdong(万事休)
见习作家
见习作家
帖子互动: 92
帖子: 410
注册时间: 2023年 11月 13日 15:13

#15 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 wdong(万事休) »

Caravel 写了: 2025年 3月 2日 22:51 是的,哈哈,我是纸上谈兵,乱弹一起。行不行还得能训练出来结果。
我想说的是模型绝知要躬行。需要有关于实操的episodic memory。这是我正在做的东西,寄予厚望。所以后面岔开了。
x1 图片
bihai
见习点评
见习点评
帖子互动: 57
帖子: 1426
注册时间: 2022年 7月 24日 20:58

#16 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 bihai »

wdong 写了: 2025年 3月 2日 23:09 我想说的是模型绝知要躬行。需要有关于实操的episodic memory。这是我正在做的东西,寄予厚望。所以后面岔开了。
我最近也是悟了意识的本质
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 517
帖子: 23650
注册时间: 2022年 7月 24日 17:21

#17 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 Caravel楼主 »

bihai 写了: 2025年 3月 2日 23:13 我最近也是悟了意识的本质
什么是意识本质?
bihai
见习点评
见习点评
帖子互动: 57
帖子: 1426
注册时间: 2022年 7月 24日 20:58

#18 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 bihai »

Caravel 写了: 2025年 3月 2日 23:50 什么是意识本质?
你先说说看你的理解,然后说说有没有没想通的地方。我想看看别人是怎么想的。
头像
verdelite(众傻之傻)
论坛元老
论坛元老
帖子互动: 889
帖子: 22316
注册时间: 2022年 7月 21日 23:33

#19 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 verdelite(众傻之傻) »

wdong 写了: 2025年 3月 2日 22:08 比你说的更加先进的技术我已经想出来了。
我2018年就都想好了。如果不是为了研究没有光子这个问题,我都动手7年了。

像我这样有洞察力的人才能在2015年预测到2025年AI智能达到人类水平。智能大牛Chris Eliasmith在2015年的预测是50年。
上次由 verdelite 在 2025年 3月 3日 00:32 修改。
原因: 未提供修改原因
没有光子;也没有量子能级,量子跃迁,量子叠加,量子塌缩和量子纠缠。
drifter
论坛精英
论坛精英
帖子互动: 398
帖子: 6877
注册时间: 2022年 9月 1日 04:17

#20 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 drifter »

wdong 写了: 2025年 3月 2日 22:29 纸上得来终觉浅,绝知此事要躬行。
现在的框架不完善,但也不是那么差。基本的要素都有了。
否则不会干活。问题是还没融会贯通。提高的余地还很大。

书读得多的人会对人类的思维能力有过度的自信。但是碰到新问题一律抓瞎。现有的这些东西,都是零零星星一点一点碰出来的,并不是某个极聪明的人设计出来的。所以虽然要素都有了,其实大家都还蒙在鼓里。这就是现在的机会。每个人都可以按自己的视角去解读这些东西。1000个人10000个人去试,自然会有人找到出路。但是是这个人聪明吗?他只是运气好。
有道理 好比年轻人能有新点子 大部分发明创造都30岁前就有主意了
所以要创新 比如数学 应该除了语言外 重零开始 看看有没有突破
回复

回到 “STEM”