人类用过往的经验推导未来,常常会碰到挫折。chatGPT就是这样一个意外。
因为通常的想法是langauge model需要grounding,不可能凭空产生智能,需要从底层的感知模块开始,产生直观的感受,建立所谓的world model,然后在此之上进一步抽象,用上language model。这也符合进化的一般规律,从低等生物,有感知模块,简单的条件反射,再到负责的动物的机动能力,再到人类的抽象思考能力。持这一派的著名学者我知道的就有Richard Sutton和Yan LeCun。
但是chatGPT似乎一步到位,直接可以和人对话,理解人的意思。chatGPT,按照现在流行的说法,其实是natural language interface to foundation model。而foundation model 是由大量人类的文本组成的数据训练成的。GPT并没有感知模块,他所有的输入,都是我们人类帮助他collect的。有时候我不禁把GPT想象成一个奇怪的生物,没有感官,我们人类你一嘴巴我一嘴巴把世界用语言描述给他,竟然久而久之,他竟然掌握了大量世界的知识,能和人类对话的有来有回。
这不禁让我们重新思考很多问题
“AGI需要直接感官么?”
是不是像GPT这样的间接过程也可以达到AGI?它不需要去看,去听,去摸,我们帮他去看去听去摸,回来告诉他感受。如果是这样的,AGI会和我们之前预计的超级智能很不同,他可能是一个缓慢的静态的东西,每一次更新需要好几天。更新之前,都是基于之前的经验。但是同时他可以是智慧的,可以思考负责的问题。他没有条件反射,没有拟人化的情感,但是却可以基于逻辑冷静的思考。
当然也有可能目前的GPT还并不是真正的AGI,只是AGI的一种原型机。他的第一步进化,需要我们人来辅助,第一步对世界感觉靠人来得到。但是以后它可以借助大量的传感器直接获取客观世界的信息,也建立快速的反应机制。那这样的AGI就会比较恐怖了,一旦human out of loop,我们对他的干预能力会越来越少。他对世界的看法,未必和我们一样,我们看他就像看一个有几千只复眼的智能昆虫,他看我们可能觉得我们像一个黏糊糊的肉虫。
AGI确实是人类历史上赌注最大的赌博,我们可能发现的是通往下一级文明快速天梯,也有可能是为人类的坟墓开挖了第一铲土。到底哪一种是真的,很难预料。
关于GPT和AGI
此博文来自论坛版块:STEM
https://campus.swarma.org/course/574
以后那种只是照本宣科的八股文就会被淘汰了,而是更看重于如何用各种工具(比如GPT)得到的信息去快速地做动态的决策,还要学会在不知道全部信息下去决策。
我用了这么些天下来的感受就是很多东西它答的都是错的,可能跟你一嘴我一嘴的喂饭方式有关。
你怎么预计?
不要问我AGI的定义,就用你自己的模糊定义。
5年之内,就能看清楚这个迭代过程的局限。如果看不到的话,那确实可以开庆功会了。