林间小舍

读书,求索,幻想

Multi-Agent LLM系统能产生原始的意识么?

Caravel
人类以及动物的意识是怎么产生的?有很多理论,各人都有各的看法,没有统一的观点。从物理学的角度看,喜欢有操作性的定义。从可操作性出发,我认为一个合适的意识的定义就是区分自身和环境以及他人的能力。

生物是通过严苛的生存竞争来逐渐获得的意识。最早的单细胞生物,多细胞生物的意识如果有也是很弱的,只有简单的条件发射性的程序性的功能来获取食物,和躲避危险。渐渐的动物有了更多的知觉,乃至有了视觉,能力逐渐增强。对区分自我和环境和,区分什么是食物,什么是捕食者的认识逐渐丰满立体起来。不仅有触觉的,也有视觉的,还能感知重力和气味。

同时围绕自我保护,捕食和躲避,逐渐有一套action space也出来了,这些action space建立在对肌肉身体能力的熟练运用的基础之上。

说完动物,说说LLM,目前的大预言模型,前期的训练只是猛灌数据。 只有到了后期RLHF的阶段,才有了一点我的感觉,需要对提问者进行反应。可以认为,LLM在文本交互中可以区分自我和提问者,这是一种很微弱的意识么?我们还不能确信.

但是如果这是真的,将在multi-agent系统中更进一步加强,单个LLM based agent不仅需要区分自己,不仅需要区分自己和提问者,还需要区分合作的多个agent,甚至要记住不同agent的分工。当然这仅仅是通过文本阅读来实现。这并不是问题,原始的生物也只能通过少量的感官来感知世界。

同时agent也会拥有私有的prompt的存储,分化是必然的。 如果这个理论成立,那么显然在这个环境里面,LLM agent的意识会逐渐增强。

这会是一种什么样的智能和意识?让我们拭目以待。

此博文来自论坛版块:STEM

共 5 条评论

  1. Caravel
    Caravel

    wdong 写了: 2025年 3月 15日 08:31 IC: Intrinsic consciousness.
    EC: Extrinsic consciousness, what we observe from outside.

    事实: LLM可以实现EC。这个你随便和chatgpt聊聊就能感受到。

    定理:如果LLM可以通过图灵测试,那么LLM具有EC。LLM是否具有IC的问题等价于philosophical zombie是否可以区分的问题。

    我认为假设IC = EC在现实中不会出问题。
    现在的AI 网络都是一样的,

    私有的东西只有prompt这一点

    怎么才能让私有的东西越来越多?
  2. Caravel
    Caravel

    TheMatrix 写了: 2025年 3月 15日 10:16 听其言,还要观其行。人不为己天诛地灭。LLM能干出这事吗?
    无它,就是plan based on own context
  3. Caravel
    Caravel

    wdong 写了: 2025年 3月 15日 08:31 IC: Intrinsic consciousness.
    EC: Extrinsic consciousness, what we observe from outside.

    事实: LLM可以实现EC。这个你随便和chatgpt聊聊就能感受到。

    定理:如果LLM可以通过图灵测试,那么LLM具有EC。LLM是否具有IC的问题等价于philosophical zombie是否可以区分的问题。

    我认为假设IC = EC在现实中不会出问题。
    据你观察,多agent系统如果看一段对话,能分清楚自己和他人么?
  4. TheMatrix
    TheMatrix

    wdong 写了: 2025年 3月 15日 08:31 IC: Intrinsic consciousness.
    EC: Extrinsic consciousness, what we observe from outside.

    事实: LLM可以实现EC。这个你随便和chatgpt聊聊就能感受到。

    定理:如果LLM可以通过图灵测试,那么LLM具有EC。LLM是否具有IC的问题等价于philosophical zombie是否可以区分的问题。

    我认为假设IC = EC在现实中不会出问题。
    听其言,还要观其行。人不为己天诛地灭。LLM能干出这事吗?
  5. wdong
    wdong

    IC: Intrinsic consciousness.
    EC: Extrinsic consciousness, what we observe from outside.

    事实: LLM可以实现EC。这个你随便和chatgpt聊聊就能感受到。

    定理:如果LLM可以通过图灵测试,那么LLM具有EC。LLM是否具有IC的问题等价于philosophical zombie是否可以区分的问题。

    我认为假设IC = EC在现实中不会出问题。

评论

© 2024newmitbbs.com

Theme by Anders NorenUp ↑