想到了目前LLM训练的一个巨大瑕疵

STEM版,合并数学,物理,化学,科学,工程,机械。不包括生物、医学相关,和计算机相关内容。

版主: verdeliteTheMatrix

bihai
见习点评
见习点评
帖子互动: 61
帖子: 1532
注册时间: 2022年 7月 24日 20:58

#21 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 bihai »

verdelite 写了: 2025年 3月 3日 00:29 我2018年就都想好了。如果不是为了研究没有光子这个问题,我都动手7年了。

像我这样有洞察力的人才能在2015年预测到2025年AI智能达到人类水平。智能大牛Chris Eliasmith在2015年的预测是50年。
耽误了?你先把人工智能搞出来,让它研究光子不就行了吗
x1 图片

标签/Tags:
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 573
帖子: 25077
注册时间: 2022年 7月 24日 17:21

#22 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 Caravel楼主 »

verdelite 写了: 2025年 3月 3日 00:29 我2018年就都想好了。如果不是为了研究没有光子这个问题,我都动手7年了。

像我这样有洞察力的人才能在2015年预测到2025年AI智能达到人类水平。智能大牛Chris Eliasmith在2015年的预测是50年。
现在AI总体来说离人还差得远,但是单项比如做数学题下棋,可以超越大部分人。
头像
Pegasi
见习点评
见习点评
帖子互动: 71
帖子: 1250
注册时间: 2022年 10月 22日 12:50

#23 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 Pegasi »

RL是最可怕的东西,AlphaGo是一对一的RL,要是让这些机器的LLM互相学习,多对多,估计用不了多久就没人类训练数据啥事了,机器文明就诞生了
头像
verdelite(众傻之傻)
论坛元老
论坛元老
帖子互动: 947
帖子: 23117
注册时间: 2022年 7月 21日 23:33

#24 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 verdelite(众傻之傻) »

Pegasi 写了: 2025年 3月 3日 02:01 RL是最可怕的东西,AlphaGo是一对一的RL,要是让这些机器的LLM互相学习,多对多,估计用不了多久就没人类训练数据啥事了,机器文明就诞生了
根本不需要一个啥都精通的最强大脑。下棋时调用下棋大脑,做数学题时调用数学大脑,这样组合已有专业大脑就已经行了。
没有光子;也没有量子能级,量子跃迁,量子叠加,量子塌缩和量子纠缠。
wdong(万事休)
见习作家
见习作家
帖子互动: 92
帖子: 410
注册时间: 2023年 11月 13日 15:13

#25 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 wdong(万事休) »

verdelite 写了: 2025年 3月 3日 02:04 根本不需要一个啥都精通的最强大脑。下棋时调用下棋大脑,做数学题时调用数学大脑,这样组合已有专业大脑就已经行了。
对。不光如此,我认为不可能啥都精通。有的东西是矛盾的。这是做agent的基本出发点。如果牛逼的模型啥都能会,不需要agent。
abovetherim
见习写手
见习写手
帖子互动: 9
帖子: 94
注册时间: 2023年 12月 14日 11:05

#26 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 abovetherim »

verdelite 写了: 2025年 3月 3日 00:29 我2018年就都想好了。如果不是为了研究没有光子这个问题,我都动手7年了。

像我这样有洞察力的人才能在2015年预测到2025年AI智能达到人类水平。智能大牛Chris Eliasmith在2015年的预测是50年。
你真的还在坚持2025年AI智能达到人类水平啊。行吧。。。 8-)
头像
verdelite(众傻之傻)
论坛元老
论坛元老
帖子互动: 947
帖子: 23117
注册时间: 2022年 7月 21日 23:33

#27 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 verdelite(众傻之傻) »

abovetherim 写了: 2025年 3月 3日 13:46 你真的还在坚持2025年AI智能达到人类水平啊。行吧。。。 8-)
其实已经达到了,你想想。

世人皆傻,人类平均水平是很低的。就拿IQ100的人来说,AI也超过他们中间智能的中位数或者平均数。
没有光子;也没有量子能级,量子跃迁,量子叠加,量子塌缩和量子纠缠。
wdong(万事休)
见习作家
见习作家
帖子互动: 92
帖子: 410
注册时间: 2023年 11月 13日 15:13

#28 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 wdong(万事休) »

abovetherim 写了: 2025年 3月 3日 13:46 你真的还在坚持2025年AI智能达到人类水平啊。行吧。。。 8-)
我觉得已经超过人类平均了。
abovetherim
见习写手
见习写手
帖子互动: 9
帖子: 94
注册时间: 2023年 12月 14日 11:05

#29 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 abovetherim »

verdelite 写了: 2025年 3月 3日 14:25 其实已经达到了,你想想。

世人皆傻,人类平均水平是很低的。就拿IQ100的人来说,AI也超过他们中间智能的中位数或者平均数。
哈哈,这样说的话,也有道理。毕竟要比做智商测试题的话,llm当然超过了。但在common sense上,llm还是问题太大了(而常人没有这种问题)。所以达到“人类平均水平”没有,还真不好比较 :lol:
magagop
见习点评
见习点评
帖子互动: 139
帖子: 1961
注册时间: 2024年 12月 5日 17:35

#30 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 magagop »

Caravel 写了: 2025年 3月 2日 15:08 回顾大模型训练的历史是

先预训练一个巨大的language model
然后再训练来对话2022年出现ChatGPT
然后2024年出现长链推理的推理模型

但是人则不是这样,
小孩没有学习所有的词汇,
再去学习说话和推理
而是先学了几个词,就开始说话,然后大人再多教一些
再多学会一点,推理更强一点。
这样的好处是模型可以保持学习新的东西。

我猜测未来几年,会有人探索在小预训练模型上面训练推理能力。我认为小模型也可以推理。就像小孩一样,虽然有点childish,但是也可以有回溯反思。推理能力甚至在语言之前就有。
你的想法是:找一萬個智商90的小學生幹幾年,是不是就能破解統一場物理問題了,應該比一個博後好用。
x1 图片
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 573
帖子: 25077
注册时间: 2022年 7月 24日 17:21

#31 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 Caravel楼主 »

magagop 写了: 2025年 3月 3日 16:56 你的想法是:找一萬個智商90的小學生幹幾年,是不是就能破解統一場物理問題了,應該比一個博後好用。
你这人思路不开阔
这么training可能上限更高
magagop
见习点评
见习点评
帖子互动: 139
帖子: 1961
注册时间: 2024年 12月 5日 17:35

#32 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 magagop »

Caravel 写了: 2025年 3月 3日 17:59 你这人思路不开阔
这么training可能上限更高
我不理解,我是大核心和高智商派,不認為多核心和群智更好,這應該是哲學問題。

這種小模型群毆的問題是,你怎麼在一大堆垃圾回答裡面找到最強的那個答案?這也是成本啊。

而且還有基因退化問題,不是被選中的那個模型,每次都有最佳答案,結果就是訓練一堆烏合之眾而已。
x1 图片
wdong(万事休)
见习作家
见习作家
帖子互动: 92
帖子: 410
注册时间: 2023年 11月 13日 15:13

#33 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 wdong(万事休) »

magagop 写了: 2025年 3月 3日 16:56 你的想法是:找一萬個智商90的小學生幹幾年,是不是就能破解統一場物理問題了,應該比一個博後好用。
研究语言模型的行为,用小模型就可以研究。博士后的思维和小学生的思维没有本质差别。博士后只是数据量大而已。

有的人78岁了,天天胡说八道,智商不会超过小学生。
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 573
帖子: 25077
注册时间: 2022年 7月 24日 17:21

#34 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 Caravel楼主 »

magagop 写了: 2025年 3月 3日 18:16 我不理解,我是大核心和高智商派,不認為多核心和群智更好,這應該是哲學問題。

這種小模型群毆的問題是,你怎麼在一大堆垃圾回答裡面找到最強的那個答案?這也是成本啊。

而且還有基因退化問題,不是被選中的那個模型,每次都有最佳答案,結果就是訓練一堆烏合之眾而已。
进化的历史表明,小核和群体智能更胜一筹。
heteroclinic(Heteroclinic)
著名点评
著名点评
heteroclinic 的博客
帖子互动: 43
帖子: 3962
注册时间: 2022年 10月 31日 00:35

#35 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 heteroclinic(Heteroclinic) »

人脑只有四十瓦(chat GPT说平均只有二十),alpha go 多少瓦?
magagop
见习点评
见习点评
帖子互动: 139
帖子: 1961
注册时间: 2024年 12月 5日 17:35

#36 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 magagop »

Caravel 写了: 2025年 3月 3日 20:52 进化的历史表明,小核和群体智能更胜一筹。
那一群老鼠也可以造出火箭登月唄?人類大腦絕對容量排名非常靠前,智商怪獸不是蓋的。
drifter
论坛精英
论坛精英
帖子互动: 431
帖子: 7192
注册时间: 2022年 9月 1日 04:17

#37 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 drifter »

magagop 写了: 2025年 3月 3日 22:06 那一群老鼠也可以造出火箭登月唄?人類大腦絕對容量排名非常靠前,智商怪獸不是蓋的。
语言文字是基础
x1 图片
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 573
帖子: 25077
注册时间: 2022年 7月 24日 17:21

#38 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 Caravel楼主 »

magagop 写了: 2025年 3月 3日 22:06 那一群老鼠也可以造出火箭登月唄?人類大腦絕對容量排名非常靠前,智商怪獸不是蓋的。
这是有理由的,关注的东西太多,search的速度就会下降

人类通过分工创造了文明

我认为造出一个AGI就解决所有问题是幻想

物理世界比AGI强大的多
bihai
见习点评
见习点评
帖子互动: 61
帖子: 1532
注册时间: 2022年 7月 24日 20:58

#39 Re: 想到了目前LLM训练的一个巨大瑕疵

帖子 bihai »

wdong 写了: 2025年 3月 3日 15:52 我觉得已经超过人类平均了。
人是有意识的。你觉得现在的人工智能有意识了吗?
回复

回到 “STEM”