想到了目前LLM训练的一个巨大瑕疵
版主: verdelite, TheMatrix
-
- 论坛元老
Caravel 的博客 - 帖子互动: 517
- 帖子: 23650
- 注册时间: 2022年 7月 24日 17:21
#1 想到了目前LLM训练的一个巨大瑕疵
回顾大模型训练的历史是
先预训练一个巨大的language model
然后再训练来对话2022年出现ChatGPT
然后2024年出现长链推理的推理模型
但是人则不是这样,
小孩没有学习所有的词汇,
再去学习说话和推理
而是先学了几个词,就开始说话,然后大人再多教一些
再多学会一点,推理更强一点。
这样的好处是模型可以保持学习新的东西。
我猜测未来几年,会有人探索在小预训练模型上面训练推理能力。我认为小模型也可以推理。就像小孩一样,虽然有点childish,但是也可以有回溯反思。推理能力甚至在语言之前就有。
先预训练一个巨大的language model
然后再训练来对话2022年出现ChatGPT
然后2024年出现长链推理的推理模型
但是人则不是这样,
小孩没有学习所有的词汇,
再去学习说话和推理
而是先学了几个词,就开始说话,然后大人再多教一些
再多学会一点,推理更强一点。
这样的好处是模型可以保持学习新的东西。
我猜测未来几年,会有人探索在小预训练模型上面训练推理能力。我认为小模型也可以推理。就像小孩一样,虽然有点childish,但是也可以有回溯反思。推理能力甚至在语言之前就有。
标签/Tags:
#2 Re: 想到了目前LLM训练的一个巨大瑕疵

人其实不如AI。活在人的身体里很难受。
x1

-
- 论坛元老
Caravel 的博客 - 帖子互动: 517
- 帖子: 23650
- 注册时间: 2022年 7月 24日 17:21
#5 Re: 想到了目前LLM训练的一个巨大瑕疵
哈哈 看来idea真是很cheapwdong 写了: 2025年 3月 2日 19:28你说的这些问题都有人在探索。搜TinyStories。但是就像另外一个帖子讨论的,人其实并没有多少逻辑思维和reasoning的能力,对于大方向在哪儿绝大多数人是没感觉的,只能乱碰乱撞,偶尔撞上了再回过头来圆故事。大多数人不但没有思维能力,而且眼界狭窄,而且还很短视,只愿意干明确见得到好处的方向,很多东西碰一下就完了不往下挖了。其实开挖的时候本来也就是只想碰一下而已。所以科学发展会这么难。
人其实不如AI。活在人的身体里很难受。
我你说了看了一下tinystories,
确实是和我想的类似
但我还有一个想法就是慢慢增加词汇量
可以观察model是怎么获得新能力的
-
- 论坛支柱
2024年度优秀版主
TheMatrix 的博客 - 帖子互动: 253
- 帖子: 13128
- 注册时间: 2022年 7月 26日 00:35
#7 Re: 想到了目前LLM训练的一个巨大瑕疵
大模型的训练是快速重走人类进化史。训练的结果是人类一出生就具备的。而人类小孩的学习是事例学习,和大模型训练不是一个阶段的事情,不应该类比。人类小孩的学习和大模型in-context learning可以类比一下。Caravel 写了: 2025年 3月 2日 15:08 回顾大模型训练的历史是
先预训练一个巨大的language model
然后再训练来对话2022年出现ChatGPT
然后2024年出现长链推理的推理模型
但是人则不是这样,
小孩没有学习所有的词汇,
再去学习说话和推理
而是先学了几个词,就开始说话,然后大人再多教一些
再多学会一点,推理更强一点。
这样的好处是模型可以保持学习新的东西。
我猜测未来几年,会有人探索在小预训练模型上面训练推理能力。我认为小模型也可以推理。就像小孩一样,虽然有点childish,但是也可以有回溯反思。推理能力甚至在语言之前就有。
x1

-
- 论坛元老
Caravel 的博客 - 帖子互动: 517
- 帖子: 23650
- 注册时间: 2022年 7月 24日 17:21
#8 Re: 想到了目前LLM训练的一个巨大瑕疵
我认为人类进化史提供的应该是网络结构和训练方法TheMatrix 写了: 2025年 3月 2日 21:34 大模型的训练是快速重走人类进化史。训练的结果是人类一出生就具备的。而人类小孩的学习是事例学习,和大模型训练不是一个阶段的事情,不应该类比。人类小孩的学习和大模型in-context learning可以类比一下。
大部分权重都是后天学习的
但是人类的学习并不是大量预训练加强化学习
而是每天都在预训练,然后同时也强化学习
不是学习了天下所有文本在开口说话
而是边学边说 一开始说话有点childish
王子公主小红帽大灰狼
渐渐学习新的东西
#9 Re: 想到了目前LLM训练的一个巨大瑕疵
比你说的更加先进的技术我已经想出来了。Caravel 写了: 2025年 3月 2日 21:25 哈哈 看来idea真是很cheap
我你说了看了一下tinystories,
确实是和我想的类似
但我还有一个想法就是慢慢增加词汇量
可以观察model是怎么获得新能力的
-
- 论坛元老
Caravel 的博客 - 帖子互动: 517
- 帖子: 23650
- 注册时间: 2022年 7月 24日 17:21
#12 Re: 想到了目前LLM训练的一个巨大瑕疵
Caravel 写了: 2025年 3月 2日 15:08 但是人则不是这样,
小孩没有学习所有的词汇,
再去学习说话和推理
而是先学了几个词,就开始说话,然后大人再多教一些
再多学会一点,推理更强一点。
这样的好处是模型可以保持学习新的东西。
还有一点别忽视了
大人和小孩子很多是靠眼睛和气氛学的
所谓言传身教
有时候一个手势一个脸色 比说半个小时都管用
这个是机器所完全没有的
#13 Re: 想到了目前LLM训练的一个巨大瑕疵
纸上得来终觉浅,绝知此事要躬行。
现在的框架不完善,但也不是那么差。基本的要素都有了。
否则不会干活。问题是还没融会贯通。提高的余地还很大。
书读得多的人会对人类的思维能力有过度的自信。但是碰到新问题一律抓瞎。现有的这些东西,都是零零星星一点一点碰出来的,并不是某个极聪明的人设计出来的。所以虽然要素都有了,其实大家都还蒙在鼓里。这就是现在的机会。每个人都可以按自己的视角去解读这些东西。1000个人10000个人去试,自然会有人找到出路。但是是这个人聪明吗?他只是运气好。
-
- 论坛元老
Caravel 的博客 - 帖子互动: 517
- 帖子: 23650
- 注册时间: 2022年 7月 24日 17:21
#14 Re: 想到了目前LLM训练的一个巨大瑕疵
是的,哈哈,我是纸上谈兵,乱弹一起。行不行还得能训练出来结果。wdong 写了: 2025年 3月 2日 22:29 纸上得来终觉浅,绝知此事要躬行。
现在的框架不完善,但也不是那么差。基本的要素都有了。
否则不会干活。问题是还没融会贯通。提高的余地还很大。
书读得多的人会对人类的思维能力有过度的自信。但是碰到新问题一律抓瞎。现有的这些东西,都是零零星星一点一点碰出来的,并不是某个极聪明的人设计出来的。所以虽然要素都有了,其实大家都还蒙在鼓里。这就是现在的机会。每个人都可以按自己的视角去解读这些东西。1000个人10000个人去试,自然会有人找到出路。但是是这个人聪明吗?他只是运气好。
-
- 论坛元老
Caravel 的博客 - 帖子互动: 517
- 帖子: 23650
- 注册时间: 2022年 7月 24日 17:21
#19 Re: 想到了目前LLM训练的一个巨大瑕疵
我2018年就都想好了。如果不是为了研究没有光子这个问题,我都动手7年了。
像我这样有洞察力的人才能在2015年预测到2025年AI智能达到人类水平。智能大牛Chris Eliasmith在2015年的预测是50年。
上次由 verdelite 在 2025年 3月 3日 00:32 修改。
原因: 未提供修改原因
原因: 未提供修改原因
没有光子;也没有量子能级,量子跃迁,量子叠加,量子塌缩和量子纠缠。
#20 Re: 想到了目前LLM训练的一个巨大瑕疵
有道理 好比年轻人能有新点子 大部分发明创造都30岁前就有主意了wdong 写了: 2025年 3月 2日 22:29 纸上得来终觉浅,绝知此事要躬行。
现在的框架不完善,但也不是那么差。基本的要素都有了。
否则不会干活。问题是还没融会贯通。提高的余地还很大。
书读得多的人会对人类的思维能力有过度的自信。但是碰到新问题一律抓瞎。现有的这些东西,都是零零星星一点一点碰出来的,并不是某个极聪明的人设计出来的。所以虽然要素都有了,其实大家都还蒙在鼓里。这就是现在的机会。每个人都可以按自己的视角去解读这些东西。1000个人10000个人去试,自然会有人找到出路。但是是这个人聪明吗?他只是运气好。
所以要创新 比如数学 应该除了语言外 重零开始 看看有没有突破