Agent就是有“我”的语言模型
版主: hci
#1 Agent就是有“我”的语言模型
定义:Agent 就是有自我意识的语言模型。
An agent is a language model that appears to be self conscious. 为了不冒犯某些宗教信仰的朋友,我加了appear to be.
我这个架构叫The Ann Arbor Architecture of Agents。
具体实现来说,Agent就是跑在语言模型上的一个有自我概念的context。甚至这个context可以一会跑在gpt上,一会跑在claude上。甚至Agent自己很可能会意识到,今天运气不好被调度到llama小模型上了,尽说胡话,希望明天又被调回来。用OS的概念说,llm就是CPU,agent就是process。
做agent的关键,就是每个agent得起一个名字。你在任何时候问agent,他都得说得出来他叫什么名字。然后所有的功能,责任,乱七八糟的,一层一层堆叠在这个名字之上。是不是真的有意识这里不讨论,但是现在的LLM完全有能力装作看起来有意识。这在功能上就够了。
An agent is a language model that appears to be self conscious. 为了不冒犯某些宗教信仰的朋友,我加了appear to be.
我这个架构叫The Ann Arbor Architecture of Agents。
具体实现来说,Agent就是跑在语言模型上的一个有自我概念的context。甚至这个context可以一会跑在gpt上,一会跑在claude上。甚至Agent自己很可能会意识到,今天运气不好被调度到llama小模型上了,尽说胡话,希望明天又被调回来。用OS的概念说,llm就是CPU,agent就是process。
做agent的关键,就是每个agent得起一个名字。你在任何时候问agent,他都得说得出来他叫什么名字。然后所有的功能,责任,乱七八糟的,一层一层堆叠在这个名字之上。是不是真的有意识这里不讨论,但是现在的LLM完全有能力装作看起来有意识。这在功能上就够了。
+1.00 积分 [版主 hci 发放的奖励]
上次由 wdong 在 2025年 1月 21日 11:36 修改。
-
- 论坛支柱
2024年度优秀版主
TheMatrix 的博客 - 帖子互动: 253
- 帖子: 13120
- 注册时间: 2022年 7月 26日 00:35
#2 Re: Agent就是有“我”的语言模型
有见地。有启发。wdong 写了: 2025年 1月 20日 20:22 定义:Agent 就是有自我概念的语言模型。
具体实现来说,Agent就是跑在语言模型上的一个有自我概念的context。甚至这个context可以一会跑在gpt上,一会跑在claude上。甚至Agent自己很可能会意识到,今天运气不好被调度到llama小模型上了,尽说胡话,希望明天又被调回来。用OS的概念说,llm就是CPU,agent就是process。
做agent的关键,就是每个agent得起一个名字。你在任何时候问agent,他都得说得出来他叫什么名字。然后所有的功能,责任,乱七八糟的,一层一层堆叠在这个名字之上。是不是真的有意识这里不讨论,但是现在的LLM完全有能力装作看起来有意识。这在功能上就够了。
#3 Re: Agent就是有“我”的语言模型
Llm本身没有session 的概念wdong 写了: 2025年 1月 20日 20:22 定义:Agent 就是有自我概念的语言模型。
具体实现来说,Agent就是跑在语言模型上的一个有自我概念的context。甚至这个context可以一会跑在gpt上,一会跑在claude上。甚至Agent自己很可能会意识到,今天运气不好被调度到llama小模型上了,尽说胡话,希望明天又被调回来。用OS的概念说,llm就是CPU,agent就是process。
做agent的关键,就是每个agent得起一个名字。你在任何时候问agent,他都得说得出来他叫什么名字。然后所有的功能,责任,乱七八糟的,一层一层堆叠在这个名字之上。是不是真的有意识这里不讨论,但是现在的LLM完全有能力装作看起来有意识。这在功能上就够了。
这个就是把session和 context存起来呗
技术上怎么实现
比如哪些算context
今天的天气要当context 存起来吗
打桥牌的黄俄凋零殆尽
穿汉服的汉儿何能为也
穿汉服的汉儿何能为也
#4 Re: Agent就是有“我”的语言模型
Llm先把学习搞定,再扯别的。
现在的llm是个死东西,不具備任何学习能力。stateless
Agent state都是外在的,这不就是我2018就提出的体系结构么?symbolic as the bones, data driven as the flesh
所以AGI people 己经认输了。
现在的llm是个死东西,不具備任何学习能力。stateless
Agent state都是外在的,这不就是我2018就提出的体系结构么?symbolic as the bones, data driven as the flesh
所以AGI people 己经认输了。
hahan 写了: 2025年 1月 20日 21:08 Llm本身没有session 的概念
这个就是把session和 context存起来呗
技术上怎么实现
比如哪些算context
今天的天气要当context 存起来吗
x1

上次由 hci 在 2025年 1月 20日 23:34 修改。
原因: 未提供修改原因
原因: 未提供修改原因
#5 Re: Agent就是有“我”的语言模型
目前教法不对。我已经有经验了。要手把手教。大规模集中训练一两个模型这种做法已经很难提高了。接下来需要一对一训练。每个人训练一个或几个agent作为自己的数字替身和数字后代。这个如果能出圈,闭环就打通了。人训练agent,然后agent的记忆周期性汇总训练AI。hci 写了: 2025年 1月 20日 23:30 Llm先把学习搞定,再扯别的。
现在的llm是个死东西,不具備任何学习能力。stateless
Agent state都是外在的,这不就是我2018就提出的体系结构么?symbolic as the bones, data driven as the flesh
所以AGI people 己经认输了。
x1

#6 Re: Agent就是有“我”的语言模型
关键在于,并不存在训练呀。你用LLM的时候,它的参数又没有变。哪里有学习?
什么agent要有“我”,这个“我”在你的程序里面,并不存在于LLM里面。不是么?
你们怎么连最基本的事实都没有搞明白,就在hype什么AGI了,咋回事?
你看你自己上面的原文,都是自相矛盾的。到底“我”是在LLM里面,还是外面?你题目说是在LLM里面,可你的描述是说在context里面,到底想明白了没有?
看到没有,信了AGI教,本来挺明白的一个人,都稀里糊涂了。
什么agent要有“我”,这个“我”在你的程序里面,并不存在于LLM里面。不是么?
你们怎么连最基本的事实都没有搞明白,就在hype什么AGI了,咋回事?
你看你自己上面的原文,都是自相矛盾的。到底“我”是在LLM里面,还是外面?你题目说是在LLM里面,可你的描述是说在context里面,到底想明白了没有?
看到没有,信了AGI教,本来挺明白的一个人,都稀里糊涂了。
wdong 写了: 2025年 1月 21日 07:56 目前教法不对。我已经有经验了。要手把手教。大规模集中训练一两个模型这种做法已经很难提高了。接下来需要一对一训练。每个人训练一个或几个agent作为自己的数字替身和数字后代。这个如果能出圈,闭环就打通了。人训练agent,然后agent的记忆周期性汇总训练AI。
上次由 hci 在 2025年 1月 21日 10:49 修改。
原因: 未提供修改原因
原因: 未提供修改原因
#7 Re: Agent就是有“我”的语言模型
In context learning。 你和agent的对话,你让agent做的任务,它一开始失败了,你告诉他为什么失败,知道最后成功的经历。这些就是agent的in context learning,也是他memory的一部分。具体说来,agent就是由所有的这些episodic memory片段组成的。当这些memory被当成context在gpt上跑的时候,会发生in context learning,似的接下来agent说的话就像是他自己说的似的。这个我已经搞过好几次了。不会错。
抽象地说,agent = model with identity,但是实际实现是model with identity = (interchangeable static LLM model without identity + growing context with identity)。如果将来算力无限提高,对于重要的agent是可以做到一个agent一个model的。
我这个理念有一定的先进性的,我希望先给你们解释明白了。
抽象地说,agent = model with identity,但是实际实现是model with identity = (interchangeable static LLM model without identity + growing context with identity)。如果将来算力无限提高,对于重要的agent是可以做到一个agent一个model的。
我这个理念有一定的先进性的,我希望先给你们解释明白了。
hci 写了: 2025年 1月 21日 10:42 关键在于,并不存在训练呀。你用LLM的时候,它的参数又没有变。哪里有学习?
什么agent要有“我”,这个“我”在你的程序里面,并不存在于LLM里面。不是么?
你们怎么连最基本的事实都没有搞明白,就在hype什么AGI了,咋回事?
你看你自己上面的原文,都是自相矛盾的。到底“我”是在LLM里面,还是外面?你题目说是在LLM里面,可你的描述是说在context里面,到底想明白了没有?
看到没有,信了AGI教,本来挺明白的一个人,都稀里糊涂了。
#8 Re: Agent就是有“我”的语言模型
context就是个很长的字符串。要不要加什么信息取决于你的应用。技术实现就是字符串相加。你把"The whether today (2025-01-21) is fine."加到那个字符串上,这个信息就进入agent的memory了。需要的时候它自己就会用这个信息。hahan 写了: 2025年 1月 20日 21:08 Llm本身没有session 的概念
这个就是把session和 context存起来呗
技术上怎么实现
比如哪些算context
今天的天气要当context 存起来吗
#9 Re: Agent就是有“我”的语言模型
我明白你的意思。而你不明白我的意思。
你这个context是在LLM之外的,是你自己写的程序的一部分。那这种体系机构,不就是我2018年就开始宣传的,当时我说“现在就可以实现的AI的实用体系结构”么?而且,我做这个talk的时候,我的公司的产品已经实现了这个东西。
这个体系结构与AGI人们宣传的“端到端的LLM就是AGI”,完全是两回事呀。
这个理念有啥先进性,我7年前的talk就是这么说的。我记得2018年我把我的talk的链接贴到老买买提,一个人回“这不是很自然么,难道别人不是这么看AI的么”,我当时说,深学人士还真不是这么看的,他们觉得AI应该是端到端的深学,而不是把深学的东西嵌入到一个程序里面。
我又当了一次先知。只是人们不承认而已。世人皆傻,还包括世人都觉得自己懂的是自己会的,不是别人告诉的。
你这个context是在LLM之外的,是你自己写的程序的一部分。那这种体系机构,不就是我2018年就开始宣传的,当时我说“现在就可以实现的AI的实用体系结构”么?而且,我做这个talk的时候,我的公司的产品已经实现了这个东西。
这个体系结构与AGI人们宣传的“端到端的LLM就是AGI”,完全是两回事呀。
这个理念有啥先进性,我7年前的talk就是这么说的。我记得2018年我把我的talk的链接贴到老买买提,一个人回“这不是很自然么,难道别人不是这么看AI的么”,我当时说,深学人士还真不是这么看的,他们觉得AI应该是端到端的深学,而不是把深学的东西嵌入到一个程序里面。
我又当了一次先知。只是人们不承认而已。世人皆傻,还包括世人都觉得自己懂的是自己会的,不是别人告诉的。
wdong 写了: 2025年 1月 21日 11:21 In context learning。 你和agent的对话,你让agent做的任务,它一开始失败了,你告诉他为什么失败,知道最后成功的经历。这些就是agent的in context learning,也是他memory的一部分。具体说来,agent就是由所有的这些episodic memory片段组成的。当这些memory被当成context在gpt上跑的时候,会发生in context learning,似的接下来agent说的话就像是他自己说的似的。这个我已经搞过好几次了。不会错。
抽象地说,agent = model with identity,但是实际实现是model with identity = (interchangeable static LLM model without identity + growing context with identity)。如果将来算力无限提高,对于重要的agent是可以做到一个agent一个model的。
我这个理念有一定的先进性的,我希望先给你们解释明白了。
上次由 hci 在 2025年 1月 21日 11:42 修改。
原因: 未提供修改原因
原因: 未提供修改原因
#10 Re: Agent就是有“我”的语言模型
嗯。。。wdong 写了: 2025年 1月 21日 11:26 context就是个很长的字符串。要不要加什么信息取决于你的应用。技术实现就是字符串相加。你把"The whether today (2025-01-21) is fine."加到那个字符串上,这个信息就进入agent的memory了。需要的时候它自己就会用这个信息。
我说技术上怎么实现
什么算context
你说你把the weather today is fine 加进去
这个你是程序员还是llm?
就是谁来决定这个信息是否和这个应用有关
打桥牌的黄俄凋零殆尽
穿汉服的汉儿何能为也
穿汉服的汉儿何能为也
#11 Re: Agent就是有“我”的语言模型
那我承认你是先知。话就是这么一句话,当然有很多人说过。但是我有独特的软件实现。你说的LLM之内之外,是实现的自由,会变。你跟agent对话时,就当他是个blackbox,不要管背后的实现。
目前大部分搞agents的人和我做法不一样的。你们可以试试自己实现。大概过一个月我会来发布我的系统。
目前大部分搞agents的人和我做法不一样的。你们可以试试自己实现。大概过一个月我会来发布我的系统。
hci 写了: 2025年 1月 21日 11:38 我明白你的意思。而你不明白我的意思。
你这个context是在LLM之外的,是你自己写的程序的一部分。那这种体系机构,不就是我2018年就开始宣传的,当时我说“现在就可以实现的AI的实用体系结构”么?
这个体系结构与AGI人们宣传的“端到端的LLM就是AGI”,完全是两回事呀。
这个理念有啥先进性,我7年前的talk就是这么说的。我记得2018年我把我的talk的链接贴到老买买提,一个人回“这不是很自然么,难道别人不是这么看AI的么”,我当时说,深学人士还真不是这么看的,他们觉得AI应该是端到端的深学,而不是把深学的东西嵌入到一个程序里面。
我又当了一次先知。只是人们不承认而已。世人皆傻,还包括世人都觉得自己懂的是自己会的,不是别人告诉的。
上次由 wdong 在 2025年 1月 21日 11:47 修改。
#13 Re: Agent就是有“我”的语言模型
Gpt 是static的wdong 写了: 2025年 1月 21日 11:21 In context learning。 你和agent的对话,你让agent做的任务,它一开始失败了,你告诉他为什么失败,知道最后成功的经历。这些就是agent的in context learning,也是他memory的一部分。具体说来,agent就是由所有的这些episodic memory片段组成的。当这些memory被当成context在gpt上跑的时候,会发生in context learning,似的接下来agent说的话就像是他自己说的似的。这个我已经搞过好几次了。不会错。
抽象地说,agent = model with identity,但是实际实现是model with identity = (interchangeable static LLM model without identity + growing context with identity)。如果将来算力无限提高,对于重要的agent是可以做到一个agent一个model的。
我这个理念有一定的先进性的,我希望先给你们解释明白了。
你的意思是说
当这些memory被当成context在gpt上跑
In context learning 是这些context 本身会增多积累
到达某种程度
这些context 会grow into an identity?
打桥牌的黄俄凋零殆尽
穿汉服的汉儿何能为也
穿汉服的汉儿何能为也
#14 Re: Agent就是有“我”的语言模型
我2018年做talk的时候,讲的是我司的产品。当然是已经实现了的。
可实现了也没有屁用,不会卖,还是卖不掉。说起来都是泪呀。
世人皆傻,现在是人人都觉得自己可以做出来。也不想想,我司做了8年,里面有多少东西?里面有个DSL, 有compiler,有no-code平台,小白不用编程就能干你说的这些事。这些哪是随便能赶上的。可人们就是不信邪,非要自己做。哎。他们不知道里面有多少坑。
可实现了也没有屁用,不会卖,还是卖不掉。说起来都是泪呀。
世人皆傻,现在是人人都觉得自己可以做出来。也不想想,我司做了8年,里面有多少东西?里面有个DSL, 有compiler,有no-code平台,小白不用编程就能干你说的这些事。这些哪是随便能赶上的。可人们就是不信邪,非要自己做。哎。他们不知道里面有多少坑。
#15 Re: Agent就是有“我”的语言模型
你这不是还要编程么?我的有UI, 都不用编程,还是卖不掉。因为人人都觉得自己可以做。
wdong 写了: 2025年 1月 21日 11:41 那我承认你是先知。话就是这么一句话,当然有很多人说过。但是我有独特的软件实现。你说的LLM之内之外,是实现的自由,会变。你跟agent对话时,就当他是个blackbox,不要管背后的实现。
目前大部分搞agents的人和我做法不一样的。你们可以试试自己实现。大概过一个月我会来发布我的系统。
x1

#16 Re: Agent就是有“我”的语言模型
不需要从出生开始,现在开始也可以。以后会有副本经济。我想如果可以,大部分人都会想要这么个副本。Digital self。你死前按个按钮,digital self代替你继续存在。真的你死没死是你自己的主观感受,在别人看来,以后副本就是你。
上次由 wdong 在 2025年 1月 21日 11:59 修改。
#17 Re: Agent就是有“我”的语言模型
你跟人怎么沟通,跟agent基本上就是怎么沟通。如果你觉得天气和你需要agent完成的任务相关,你就告诉他,否则就不用。当然一旦agent有了上网工具的接口,它自己会去获取这个信息。hahan 写了: 2025年 1月 20日 21:08 Llm本身没有session 的概念
这个就是把session和 context存起来呗
技术上怎么实现
比如哪些算context
今天的天气要当context 存起来吗
#18 Re: Agent就是有“我”的语言模型
不是我给你破冷水,作为过来人,我说,你这没有啥先进性,也不解决具体问题。还想着什么“副本经济”,我这不需要副本,UI上面点点点的产品都卖不动,还副本经济。OpenAI的GPT store不就销声匿迹了么?
现在不需要扯远了,AI现在的迫切需要,是要能解决人们的企业级具体问题。一年之内搞不定,大家就要失去信心,AI业就要崩了。其实AI小公司大面积倒闭就在眼前。
现在不需要扯远了,AI现在的迫切需要,是要能解决人们的企业级具体问题。一年之内搞不定,大家就要失去信心,AI业就要崩了。其实AI小公司大面积倒闭就在眼前。
x1

上次由 hci 在 2025年 1月 21日 12:00 修改。
原因: 未提供修改原因
原因: 未提供修改原因
#19 Re: Agent就是有“我”的语言模型
第一,核心问题是agents怎么自己改进运行自己的平台。就像编译型语言第一个要解决的是bootstrap自己一样。没有bootstrap的agent平台都没有接触到核心问题。Bootstrapping(self improvement)搞定了,企业应用都是小儿科。Agents真正面临的挑战是黎曼猜想,生命的意义和宇宙的奥秘。hci 写了: 2025年 1月 21日 11:58 不是我给你破冷水,作为过来人,我说,你这没有啥先进性,也不解决具体问题。
现在不需要扯远了,AI现在的迫切需要,是要能解决人们的企业级具体问题。一年之内搞不定,大家就要失去信心,AI业就要崩了。其实AI小公司大面积倒闭就在眼前。
第二,hci说不算,删了。
你说的很对,倒闭潮就在眼前。要想成长,需要先低调躲过眼前这轮洗牌。必须经过一轮winter stratification才会有成长的机会。种子必须保护好。
上次由 wdong 在 2025年 1月 21日 12:23 修改。
#20 Re: Agent就是有“我”的语言模型
不烧钱还能叫公司么,不就叫life-style business么?这不能相提并论。
“企业应用都是小儿科。”,哈哈。你还没有试过任何企业级应用吧?成功了再来吹牛皮。
“只要 bootstrapping搞定了”,哈哈,那现在还没有搞定,对不对?咋就展望起“Agents真正面临的挑战是黎曼猜想,生命的意义和宇宙的奥秘。”来了?
我发现信了AGI教的人, 无论本来是多实诚的一个人,都会变成吹牛皮不眨眼。
宗教的力量,真是佩服啊。
“企业应用都是小儿科。”,哈哈。你还没有试过任何企业级应用吧?成功了再来吹牛皮。
“只要 bootstrapping搞定了”,哈哈,那现在还没有搞定,对不对?咋就展望起“Agents真正面临的挑战是黎曼猜想,生命的意义和宇宙的奥秘。”来了?
我发现信了AGI教的人, 无论本来是多实诚的一个人,都会变成吹牛皮不眨眼。
宗教的力量,真是佩服啊。
wdong 写了: 2025年 1月 21日 12:06 第一,核心问题是agents怎么自己改进运行自己的平台。就像编译型语言第一个要解决的是bootstrap自己一样。没有bootstrap的agent平台都没有接触到核心问题。Bootstrapping搞定了,企业应用都是小儿科。Agents真正面临的挑战是黎曼猜想,生命的意义和宇宙的奥秘。
第二,我的公司已经存在10年了。只要不烧钱,就不会倒闭。
你说的很对,倒闭潮就在眼前。要想成长,需要先低调躲过眼前这轮洗牌。
x1

上次由 hci 在 2025年 1月 21日 12:12 修改。
原因: 未提供修改原因
原因: 未提供修改原因