人类以及动物的意识是怎么产生的?有很多理论,各人都有各的看法,没有统一的观点。从物理学的角度看,喜欢有操作性的定义。从可操作性出发,我认为一个合适的意识的定义就是区分自身和环境以及他人的能力。
生物是通过严苛的生存竞争来逐渐获得的意识。最早的单细胞生物,多细胞生物的意识如果有也是很弱的,只有简单的条件发射性的程序性的功能来获取食物,和躲避危险。渐渐的动物有了更多的知觉,乃至有了视觉,能力逐渐增强。对区分自我和环境和,区分什么是食物,什么是捕食者的认识逐渐丰满立体起来。不仅有触觉的,也有视觉的,还能感知重力和气味。
同时围绕自我保护,捕食和躲避,逐渐有一套action space也出来了,这些action space建立在对肌肉身体能力的熟练运用的基础之上。
说完动物,说说LLM,目前的大预言模型,前期的训练只是猛灌数据。 只有到了后期RLHF的阶段,才有了一点我的感觉,需要对提问者进行反应。可以认为,LLM在文本交互中可以区分自我和提问者,这是一种很微弱的意识么?我们还不能确信.
但是如果这是真的,将在multi-agent系统中更进一步加强,单个LLM based agent不仅需要区分自己,不仅需要区分自己和提问者,还需要区分合作的多个agent,甚至要记住不同agent的分工。当然这仅仅是通过文本阅读来实现。这并不是问题,原始的生物也只能通过少量的感官来感知世界。
同时agent也会拥有私有的prompt的存储,分化是必然的。 如果这个理论成立,那么显然在这个环境里面,LLM agent的意识会逐渐增强。
这会是一种什么样的智能和意识?让我们拭目以待。
Multi-Agent LLM系统能产生原始的意识么?
此博文来自论坛版块:STEM
私有的东西只有prompt这一点
怎么才能让私有的东西越来越多?
EC: Extrinsic consciousness, what we observe from outside.
事实: LLM可以实现EC。这个你随便和chatgpt聊聊就能感受到。
定理:如果LLM可以通过图灵测试,那么LLM具有EC。LLM是否具有IC的问题等价于philosophical zombie是否可以区分的问题。
我认为假设IC = EC在现实中不会出问题。