说到定理证明,很多人会想到如何将已知的公理定理按照一定方法组合起来,配合逻辑推导,找到证明路径。事实上,这是读书读多读傻了的后果。这样以为的人,这辈子怕是从未有过激动自己的发明发现。没有感受过顿悟或者啊哈瞬间。
这么干做作业,证明三角函数定理可以。但对步骤多(搜索深度深的)的大定理,甚至需要引入新方法,新定义的新定理,完全不可行。那么,那些开创人类历史的天才们,是怎么做到几万几亿臭皮匠做不到的奇迹的呢。就是训练自己的神经网络(大脑)。
事实上,人的大脑证明大定理,完全不是逻辑推导的结果,而更像文生图。当问题最早出现的时候,对大脑而言只是一个提示。然后大脑一次一次地(在后台,潜意识)从好像完全是噪点的画面开始生成证明思路。而当每次有这种灵感显现(在前台,显意识),大脑开始逻辑地审核这个思路是否走得通,然后反馈(到后台)继续优化。
当一个思路一开始出现的时候,可能像一个对焦错误朦胧的斑点。对这个光点潜意识对显意识说是证明方案。但细节显意识看不出来。直到对焦越来越准确,细节越来越清晰。张益堂想到大定理的证明就是一个例子。益堂去看鹿。有没有真的看到鹿无考,但那一瞬间问题的解突然弹出在眼前。这就是一个啊哈瞬间。
用复杂度解释,搜索可能的组合图是一个NP-TIME过程。步骤越深,可能方向数量迅速地指数爆炸。依靠人口的指数增长或算力指数增长而获得技术突破需时显然漫长。但这其实不是神经网络的有效工作方式。神经网络事实上比P-TIME强大得多。可以不严格地说通过重新训练改变连接权重获得类似于P-SPACE的能力。
P-SPACE的效率显然远强于NP-TIME。就像用逻辑电路实现组合逻辑比通用CPU跑IF-THEN迅速地多。显然,在这里,通过不断地试错和重训。大脑训练自己,改变神经元网络的连接权重,实现重构逻辑的目的。从而取代了逻辑推导过程。这个训练搜索是高度并行的。数以十万计百万计如果不是亿计的神经元/连接参与。显然比用纸和笔高效得多。
至于如何对大脑后台提词,如何改善加速这一搜索过程。这是另一个问题。印欧人对此有不少研究心得。中国则相当地落后。重刷题重死记硬背,民族性丧失了这一创新能力。当然,不排除有人(如老牛)领悟到了,但显然是极少数。老牛只能说,刷自己的大脑,从而刷题,比什么都爽。
其实不仅仅是定理证明。炒股票,乃至其它大脑对现实世界的理解(建模),都类似于此。
从益堂见鹿到河梁NP,简要说说神经网络如何证明定理
此博文来自论坛版块:STEM
1/ Ai方向很多。不要只知道一个LLM。什么问题都是“预测”下一个词的钉子。
2/ 文生图实用得可比LLM要早。
只见过说话都不利索不知所云,没见到更砖的。
数学证明是要求100%正确的,你不能搞个99%。现在AI的很多应用就是准确度到一定程度就行了。
大脑的深度搜索
就是一般说的智力的意思
智力不好的人
连做三角函授证明的那种显式搜索都不行
波利亚有个小册子是讲怎么提高显式搜索的能力的
一般而言,身体健康会有帮助。对一些人来说,冥想也有帮助。不过老牛太忙没时间冥想。
观察 与抽象 才有推理