过去一般的解释了,就是还原论意义上的,把底层机制搞清楚了就明白了。比如比如水变成水蒸气,用原子分子一解释似乎就明白了。wdong 写了: 2025年 2月 16日 08:37 我是engineer思维。可以往下想往下做了,我就认为理解了。
不理解的时候往下做是没有idea的。大家对什么叫理解可能理解不一样。我觉得现在的LLM和做飞机或者做原子弹是一样的。你要说飞机里面一点猜的东西都没有,肯定不是这样的。你现在去做莱特兄弟的飞机,可以做到一点猜的东西都没有。你要做最先进的飞机,肯定是工程领先于基础理论一点。
这个世界早就没有牛顿定律式的理解了。我往大里说,你想要的理解这个东西可能根本就不存在。你可能觉得人类对物理学理解得挺好了。但那只是你觉得有些物理学家理解了。这是宣传给你的错觉。物理学家要真理解了,怎么弦论大会都开不下去了?
人类脑子我觉得没多少东西可以挖掘了。进化出来的东西其实从算法上来说复杂不到哪里去。复杂的东西是基因通路和化学通路怎么支撑这套算法。我估计也有人在研究,但是对于推动AGI我不抱指望。目前AGI没有这些往下做五年一点问题都没有。
但是对于强关联体系就不行了,比如超导现在还搞不清楚。人工神经网络的底层再清楚没有了,但是为什么能学习语言,要上了大规模才行。几亿几千个参数相互作用,人现在搞不清楚。
wolfram很久之前就提出复杂科学只能模拟不能还原。他是搞夸克出身,后来发现原胞自动机,费曼也解释不了。他渐渐转而研究复杂系统,几十年没有什么成果。最近他们也是用一种网络来解释物理学。