分页: 2 / 2

#21 Re: 想到了目前LLM训练的一个巨大瑕疵

发表于 : 2025年 3月 3日 01:27
bihai
verdelite 写了: 2025年 3月 3日 00:29 我2018年就都想好了。如果不是为了研究没有光子这个问题,我都动手7年了。

像我这样有洞察力的人才能在2015年预测到2025年AI智能达到人类水平。智能大牛Chris Eliasmith在2015年的预测是50年。
耽误了?你先把人工智能搞出来,让它研究光子不就行了吗

#22 Re: 想到了目前LLM训练的一个巨大瑕疵

发表于 : 2025年 3月 3日 01:57
Caravel
verdelite 写了: 2025年 3月 3日 00:29 我2018年就都想好了。如果不是为了研究没有光子这个问题,我都动手7年了。

像我这样有洞察力的人才能在2015年预测到2025年AI智能达到人类水平。智能大牛Chris Eliasmith在2015年的预测是50年。
现在AI总体来说离人还差得远,但是单项比如做数学题下棋,可以超越大部分人。

#23 Re: 想到了目前LLM训练的一个巨大瑕疵

发表于 : 2025年 3月 3日 02:01
Pegasi
RL是最可怕的东西,AlphaGo是一对一的RL,要是让这些机器的LLM互相学习,多对多,估计用不了多久就没人类训练数据啥事了,机器文明就诞生了

#24 Re: 想到了目前LLM训练的一个巨大瑕疵

发表于 : 2025年 3月 3日 02:04
verdelite
Pegasi 写了: 2025年 3月 3日 02:01 RL是最可怕的东西,AlphaGo是一对一的RL,要是让这些机器的LLM互相学习,多对多,估计用不了多久就没人类训练数据啥事了,机器文明就诞生了
根本不需要一个啥都精通的最强大脑。下棋时调用下棋大脑,做数学题时调用数学大脑,这样组合已有专业大脑就已经行了。

#25 Re: 想到了目前LLM训练的一个巨大瑕疵

发表于 : 2025年 3月 3日 07:05
wdong
verdelite 写了: 2025年 3月 3日 02:04 根本不需要一个啥都精通的最强大脑。下棋时调用下棋大脑,做数学题时调用数学大脑,这样组合已有专业大脑就已经行了。
对。不光如此,我认为不可能啥都精通。有的东西是矛盾的。这是做agent的基本出发点。如果牛逼的模型啥都能会,不需要agent。

#26 Re: 想到了目前LLM训练的一个巨大瑕疵

发表于 : 2025年 3月 3日 13:46
abovetherim
verdelite 写了: 2025年 3月 3日 00:29 我2018年就都想好了。如果不是为了研究没有光子这个问题,我都动手7年了。

像我这样有洞察力的人才能在2015年预测到2025年AI智能达到人类水平。智能大牛Chris Eliasmith在2015年的预测是50年。
你真的还在坚持2025年AI智能达到人类水平啊。行吧。。。 8-)

#27 Re: 想到了目前LLM训练的一个巨大瑕疵

发表于 : 2025年 3月 3日 14:25
verdelite
abovetherim 写了: 2025年 3月 3日 13:46 你真的还在坚持2025年AI智能达到人类水平啊。行吧。。。 8-)
其实已经达到了,你想想。

世人皆傻,人类平均水平是很低的。就拿IQ100的人来说,AI也超过他们中间智能的中位数或者平均数。

#28 Re: 想到了目前LLM训练的一个巨大瑕疵

发表于 : 2025年 3月 3日 15:52
wdong
abovetherim 写了: 2025年 3月 3日 13:46 你真的还在坚持2025年AI智能达到人类水平啊。行吧。。。 8-)
我觉得已经超过人类平均了。

#29 Re: 想到了目前LLM训练的一个巨大瑕疵

发表于 : 2025年 3月 3日 16:19
abovetherim
verdelite 写了: 2025年 3月 3日 14:25 其实已经达到了,你想想。

世人皆傻,人类平均水平是很低的。就拿IQ100的人来说,AI也超过他们中间智能的中位数或者平均数。
哈哈,这样说的话,也有道理。毕竟要比做智商测试题的话,llm当然超过了。但在common sense上,llm还是问题太大了(而常人没有这种问题)。所以达到“人类平均水平”没有,还真不好比较 :lol:

#30 Re: 想到了目前LLM训练的一个巨大瑕疵

发表于 : 2025年 3月 3日 16:56
magagop
Caravel 写了: 2025年 3月 2日 15:08 回顾大模型训练的历史是

先预训练一个巨大的language model
然后再训练来对话2022年出现ChatGPT
然后2024年出现长链推理的推理模型

但是人则不是这样,
小孩没有学习所有的词汇,
再去学习说话和推理
而是先学了几个词,就开始说话,然后大人再多教一些
再多学会一点,推理更强一点。
这样的好处是模型可以保持学习新的东西。

我猜测未来几年,会有人探索在小预训练模型上面训练推理能力。我认为小模型也可以推理。就像小孩一样,虽然有点childish,但是也可以有回溯反思。推理能力甚至在语言之前就有。
你的想法是:找一萬個智商90的小學生幹幾年,是不是就能破解統一場物理問題了,應該比一個博後好用。

#31 Re: 想到了目前LLM训练的一个巨大瑕疵

发表于 : 2025年 3月 3日 17:59
Caravel
magagop 写了: 2025年 3月 3日 16:56 你的想法是:找一萬個智商90的小學生幹幾年,是不是就能破解統一場物理問題了,應該比一個博後好用。
你这人思路不开阔
这么training可能上限更高

#32 Re: 想到了目前LLM训练的一个巨大瑕疵

发表于 : 2025年 3月 3日 18:16
magagop
Caravel 写了: 2025年 3月 3日 17:59 你这人思路不开阔
这么training可能上限更高
我不理解,我是大核心和高智商派,不認為多核心和群智更好,這應該是哲學問題。

這種小模型群毆的問題是,你怎麼在一大堆垃圾回答裡面找到最強的那個答案?這也是成本啊。

而且還有基因退化問題,不是被選中的那個模型,每次都有最佳答案,結果就是訓練一堆烏合之眾而已。

#33 Re: 想到了目前LLM训练的一个巨大瑕疵

发表于 : 2025年 3月 3日 19:09
wdong
magagop 写了: 2025年 3月 3日 16:56 你的想法是:找一萬個智商90的小學生幹幾年,是不是就能破解統一場物理問題了,應該比一個博後好用。
研究语言模型的行为,用小模型就可以研究。博士后的思维和小学生的思维没有本质差别。博士后只是数据量大而已。

有的人78岁了,天天胡说八道,智商不会超过小学生。

#34 Re: 想到了目前LLM训练的一个巨大瑕疵

发表于 : 2025年 3月 3日 20:52
Caravel
magagop 写了: 2025年 3月 3日 18:16 我不理解,我是大核心和高智商派,不認為多核心和群智更好,這應該是哲學問題。

這種小模型群毆的問題是,你怎麼在一大堆垃圾回答裡面找到最強的那個答案?這也是成本啊。

而且還有基因退化問題,不是被選中的那個模型,每次都有最佳答案,結果就是訓練一堆烏合之眾而已。
进化的历史表明,小核和群体智能更胜一筹。

#35 Re: 想到了目前LLM训练的一个巨大瑕疵

发表于 : 2025年 3月 3日 21:43
heteroclinic
人脑只有四十瓦(chat GPT说平均只有二十),alpha go 多少瓦?

#36 Re: 想到了目前LLM训练的一个巨大瑕疵

发表于 : 2025年 3月 3日 22:06
magagop
Caravel 写了: 2025年 3月 3日 20:52 进化的历史表明,小核和群体智能更胜一筹。
那一群老鼠也可以造出火箭登月唄?人類大腦絕對容量排名非常靠前,智商怪獸不是蓋的。

#37 Re: 想到了目前LLM训练的一个巨大瑕疵

发表于 : 2025年 3月 3日 22:10
drifter
magagop 写了: 2025年 3月 3日 22:06 那一群老鼠也可以造出火箭登月唄?人類大腦絕對容量排名非常靠前,智商怪獸不是蓋的。
语言文字是基础

#38 Re: 想到了目前LLM训练的一个巨大瑕疵

发表于 : 2025年 3月 3日 22:23
Caravel
magagop 写了: 2025年 3月 3日 22:06 那一群老鼠也可以造出火箭登月唄?人類大腦絕對容量排名非常靠前,智商怪獸不是蓋的。
这是有理由的,关注的东西太多,search的速度就会下降

人类通过分工创造了文明

我认为造出一个AGI就解决所有问题是幻想

物理世界比AGI强大的多

#39 Re: 想到了目前LLM训练的一个巨大瑕疵

发表于 : 2025年 3月 3日 23:11
bihai
wdong 写了: 2025年 3月 3日 15:52 我觉得已经超过人类平均了。
人是有意识的。你觉得现在的人工智能有意识了吗?