耽误了?你先把人工智能搞出来,让它研究光子不就行了吗verdelite 写了: 2025年 3月 3日 00:29 我2018年就都想好了。如果不是为了研究没有光子这个问题,我都动手7年了。
像我这样有洞察力的人才能在2015年预测到2025年AI智能达到人类水平。智能大牛Chris Eliasmith在2015年的预测是50年。
想到了目前LLM训练的一个巨大瑕疵
版主: verdelite, TheMatrix
#21 Re: 想到了目前LLM训练的一个巨大瑕疵
x1

标签/Tags:
-
- 论坛元老
Caravel 的博客 - 帖子互动: 573
- 帖子: 25077
- 注册时间: 2022年 7月 24日 17:21
#22 Re: 想到了目前LLM训练的一个巨大瑕疵
现在AI总体来说离人还差得远,但是单项比如做数学题下棋,可以超越大部分人。verdelite 写了: 2025年 3月 3日 00:29 我2018年就都想好了。如果不是为了研究没有光子这个问题,我都动手7年了。
像我这样有洞察力的人才能在2015年预测到2025年AI智能达到人类水平。智能大牛Chris Eliasmith在2015年的预测是50年。
#24 Re: 想到了目前LLM训练的一个巨大瑕疵
根本不需要一个啥都精通的最强大脑。下棋时调用下棋大脑,做数学题时调用数学大脑,这样组合已有专业大脑就已经行了。Pegasi 写了: 2025年 3月 3日 02:01 RL是最可怕的东西,AlphaGo是一对一的RL,要是让这些机器的LLM互相学习,多对多,估计用不了多久就没人类训练数据啥事了,机器文明就诞生了
没有光子;也没有量子能级,量子跃迁,量子叠加,量子塌缩和量子纠缠。
#26 Re: 想到了目前LLM训练的一个巨大瑕疵
你真的还在坚持2025年AI智能达到人类水平啊。行吧。。。verdelite 写了: 2025年 3月 3日 00:29 我2018年就都想好了。如果不是为了研究没有光子这个问题,我都动手7年了。
像我这样有洞察力的人才能在2015年预测到2025年AI智能达到人类水平。智能大牛Chris Eliasmith在2015年的预测是50年。

#27 Re: 想到了目前LLM训练的一个巨大瑕疵
其实已经达到了,你想想。
世人皆傻,人类平均水平是很低的。就拿IQ100的人来说,AI也超过他们中间智能的中位数或者平均数。
没有光子;也没有量子能级,量子跃迁,量子叠加,量子塌缩和量子纠缠。
#29 Re: 想到了目前LLM训练的一个巨大瑕疵
哈哈,这样说的话,也有道理。毕竟要比做智商测试题的话,llm当然超过了。但在common sense上,llm还是问题太大了(而常人没有这种问题)。所以达到“人类平均水平”没有,还真不好比较

#30 Re: 想到了目前LLM训练的一个巨大瑕疵
你的想法是:找一萬個智商90的小學生幹幾年,是不是就能破解統一場物理問題了,應該比一個博後好用。Caravel 写了: 2025年 3月 2日 15:08 回顾大模型训练的历史是
先预训练一个巨大的language model
然后再训练来对话2022年出现ChatGPT
然后2024年出现长链推理的推理模型
但是人则不是这样,
小孩没有学习所有的词汇,
再去学习说话和推理
而是先学了几个词,就开始说话,然后大人再多教一些
再多学会一点,推理更强一点。
这样的好处是模型可以保持学习新的东西。
我猜测未来几年,会有人探索在小预训练模型上面训练推理能力。我认为小模型也可以推理。就像小孩一样,虽然有点childish,但是也可以有回溯反思。推理能力甚至在语言之前就有。
x1

-
- 论坛元老
Caravel 的博客 - 帖子互动: 573
- 帖子: 25077
- 注册时间: 2022年 7月 24日 17:21
#32 Re: 想到了目前LLM训练的一个巨大瑕疵
我不理解,我是大核心和高智商派,不認為多核心和群智更好,這應該是哲學問題。
這種小模型群毆的問題是,你怎麼在一大堆垃圾回答裡面找到最強的那個答案?這也是成本啊。
而且還有基因退化問題,不是被選中的那個模型,每次都有最佳答案,結果就是訓練一堆烏合之眾而已。
x1

#33 Re: 想到了目前LLM训练的一个巨大瑕疵
研究语言模型的行为,用小模型就可以研究。博士后的思维和小学生的思维没有本质差别。博士后只是数据量大而已。
有的人78岁了,天天胡说八道,智商不会超过小学生。
-
- 论坛元老
Caravel 的博客 - 帖子互动: 573
- 帖子: 25077
- 注册时间: 2022年 7月 24日 17:21
#34 Re: 想到了目前LLM训练的一个巨大瑕疵
进化的历史表明,小核和群体智能更胜一筹。magagop 写了: 2025年 3月 3日 18:16 我不理解,我是大核心和高智商派,不認為多核心和群智更好,這應該是哲學問題。
這種小模型群毆的問題是,你怎麼在一大堆垃圾回答裡面找到最強的那個答案?這也是成本啊。
而且還有基因退化問題,不是被選中的那個模型,每次都有最佳答案,結果就是訓練一堆烏合之眾而已。
-
- 著名点评
heteroclinic 的博客 - 帖子互动: 43
- 帖子: 3962
- 注册时间: 2022年 10月 31日 00:35
-
- 论坛元老
Caravel 的博客 - 帖子互动: 573
- 帖子: 25077
- 注册时间: 2022年 7月 24日 17:21
#38 Re: 想到了目前LLM训练的一个巨大瑕疵
这是有理由的,关注的东西太多,search的速度就会下降
人类通过分工创造了文明
我认为造出一个AGI就解决所有问题是幻想
物理世界比AGI强大的多