Agent就是有“我”的语言模型
版主: hci
#21 Re: Agent就是有“我”的语言模型
你这所谓“bootstrapping“,不就是在GPT根据context改自己的prompt么?
你咋认为别人不是这么做的?其他agent公司,都是这么做的的呀。我司的产品现在就是这么做的,自己改自己的prompt,可以无限循环下去。这个容易。而且我们这个,人还可以干预,而且都在UI上做,不需要写一行代码。
就这,卖不掉。
你咋认为别人不是这么做的?其他agent公司,都是这么做的的呀。我司的产品现在就是这么做的,自己改自己的prompt,可以无限循环下去。这个容易。而且我们这个,人还可以干预,而且都在UI上做,不需要写一行代码。
就这,卖不掉。
#23 Re: Agent就是有“我”的语言模型
区别不大。源码不是用来写prompt的么?所以说白了,就是在改自己的prompt呀。多套几层,并不改变本质。
看问题要看本质。
本质是什么?LLM并没有学习,还是一个死东西。
折腾半天,就是在折腾prompt。这就是所有Agent公司在搞的。你我没啥区别。
LLM大公司在搞的,是CoT,其实也一样,不过是把这个折腾prompt的路数预置在LLM里面。
都没有想要解决本质问题,就是怎么让AI真正学东西的问题。
看问题要看本质。
本质是什么?LLM并没有学习,还是一个死东西。
折腾半天,就是在折腾prompt。这就是所有Agent公司在搞的。你我没啥区别。
LLM大公司在搞的,是CoT,其实也一样,不过是把这个折腾prompt的路数预置在LLM里面。
都没有想要解决本质问题,就是怎么让AI真正学东西的问题。
上次由 hci 在 2025年 1月 21日 12:28 修改。
原因: 未提供修改原因
原因: 未提供修改原因
#24 Re: Agent就是有“我”的语言模型
说这些虚头巴脑的没有用,怎么定义轮不到我们,还是讨论怎么做agentwdong 写了: 2025年 1月 20日 20:22 定义:Agent 就是有自我意识的语言模型。
An agent is a language model that appears to be self conscious. 为了不冒犯某些宗教信仰的朋友,我加了appear to be.
我这个架构叫The Ann Arbor Architecture of Agents。
具体实现来说,Agent就是跑在语言模型上的一个有自我概念的context。甚至这个context可以一会跑在gpt上,一会跑在claude上。甚至Agent自己很可能会意识到,今天运气不好被调度到llama小模型上了,尽说胡话,希望明天又被调回来。用OS的概念说,llm就是CPU,agent就是process。
做agent的关键,就是每个agent得起一个名字。你在任何时候问agent,他都得说得出来他叫什么名字。然后所有的功能,责任,乱七八糟的,一层一层堆叠在这个名字之上。是不是真的有意识这里不讨论,但是现在的LLM完全有能力装作看起来有意识。这在功能上就够了。
#25 Re: Agent就是有“我”的语言模型
你总结的倒是对的,就是折腾prompt。但是我觉得折腾prompt有很大的潜力,可以在里面开发出一整套体系。从具体的实现看,实现同一件事会有很大的不同。hci 写了: 2025年 1月 21日 12:23 区别不大。源码不是用来写prompt的么?所以说白了,就是在改自己的prompt呀。多套几层,并不改变本质。
看问题要看本质。
本质是什么?LLM并没有学习,还是一个死东西。
折腾半天,就是在折腾prompt。这就是所有Agent公司在搞的。你我没啥区别。
LLM大公司在搞的,是CoT,其实也一样,不过是把这个折腾prompt的路数预置在LLM里面。
都没有想要解决本质问题,就是怎么让AI真正学东西的问题。
如果你的立场是用python写prompt这事情确实没啥好激动的。
你从这个小的立场跳出来,你会看到现在的LLM讲人类的任何语言,只要是text没有任何语法限制。怎么为这个大语言的世界制定规则,这就成了一个新的战场,就有意思了。
你一直说LLM不学东西,这事情我没法反驳。我看到的是LLM学什么都学的不错。所以这个肯定牵扯到怎么定义学。我的定义是一件事情它本来做不对,我解释了以后做对了,而且再做也能做对,这个现象我观察到好多次了。
#26 Re: Agent就是有“我”的语言模型
你这是个满足于局部的优化,以为局势就这样定了。
我不这么认为,局势并没有定。得稍微看远那么一丢丢。
我预测,给LLM加上实时学习的能力,在5年内就要实现。到时候,这些折腾prompt的东西完全就要被扔掉。
我不这么认为,局势并没有定。得稍微看远那么一丢丢。
我预测,给LLM加上实时学习的能力,在5年内就要实现。到时候,这些折腾prompt的东西完全就要被扔掉。
wdong 写了: 2025年 1月 21日 12:36 你总结的倒是对的,就是折腾prompt。但是我觉得折腾prompt有很大的潜力,可以在里面开发出一整套体系。从具体的实现看,实现同一件事会有很大的不同。
如果你的立场是用python写prompt这事情确实没啥好激动的。
你从这个小的立场跳出来,你会看到现在的LLM讲人类的任何语言,只要是text没有任何语法限制。怎么为这个大语言的世界制定规则,这就成了一个新的战场,就有意思了。
#27 Re: Agent就是有“我”的语言模型
这个区别很明确,现在的LLM的权重在使用中是不变的,所以没有学习。有学习的LLM,权重在使用中会变化。很清楚吧?后者我预测五年之内就要出现。
wdong 写了: 2025年 1月 21日 12:36 你总结的倒是对的,就是折腾prompt。但是我觉得折腾prompt有很大的潜力,可以在里面开发出一整套体系。从具体的实现看,实现同一件事会有很大的不同。
如果你的立场是用python写prompt这事情确实没啥好激动的。
你从这个小的立场跳出来,你会看到现在的LLM讲人类的任何语言,只要是text没有任何语法限制。怎么为这个大语言的世界制定规则,这就成了一个新的战场,就有意思了。
你一直说LLM不学东西,这事情我没法反驳。我看到的是LLM学什么都学的不错。所以这个肯定牵扯到怎么定义学。我的定义是一件事情它本来做不对,我解释了以后做对了,而且再做也能做对,这个现象我观察到好多次了。
#28 Re: Agent就是有“我”的语言模型
Prompt这种说法本来就不好。如果有个agent在看我们这个论坛,你发帖算是prompt吗?hci 写了: 2025年 1月 21日 12:40 你这是个满足于局部的优化,以为局势就这样定了。
我不这么认为,局势并没有定。得稍微看远那么一丢丢。
我预测,给LLM加上实时学习的能力,在5年内就要实现。到时候,这些折腾prompt的东西完全就要被扔掉。
我觉得比较好的说法是prompt engineering的技术迭代会比较快,现在的套路5年内都会过时。这么说我没意见。
#29 Re: Agent就是有“我”的语言模型
In context learning也是学习。但是你得站在一条一条对话的角度去看。如果你说所有的对话打一个包发过去,那这个过程中确实没有学习。但是这些对话都会作为下一轮的训练材料,还是会影响到几个月后模型的权重。
效率比较低,但是不是没有。
你说的实时改模型权重,我觉得并不是绕不过去的问题。有没有这个能力关系不大。现在所有模型都把context size作为核心指标,就是大家都认同了in context learning。
#30 Re: Agent就是有“我”的语言模型
哈哈,你这个说法,“prompt”不好,这种类似的意思,其实也是我最早提出的。我当时针对“intent"这种提法。
"I regard the reliance on intent as a severe limitation, because human-bot conversation may not be about user’s intent at all. For example, what about the bot’s intent? Considering only user’s intent limits the application of bots to some boring application domains such as customer support, question answering, internet of things, or e-commerce, where user ask questions that bots try to answer or speak their wishes that bots try to fulfill."
https://juji.io/blog/three-big-ideas-be ... -platform/
"I regard the reliance on intent as a severe limitation, because human-bot conversation may not be about user’s intent at all. For example, what about the bot’s intent? Considering only user’s intent limits the application of bots to some boring application domains such as customer support, question answering, internet of things, or e-commerce, where user ask questions that bots try to answer or speak their wishes that bots try to fulfill."
https://juji.io/blog/three-big-ideas-be ... -platform/
wdong 写了: 2025年 1月 21日 12:45 Prompt这种说法本来就不好。如果有个agent在看我们这个论坛,你发帖算是prompt吗?
我觉得比较好的说法是prompt engineering的技术迭代会比较快,现在的套路5年内都会过时。这么说我没意见。
#31 Re: Agent就是有“我”的语言模型
好,你这个提得比我早我也认可。hci 写了: 2025年 1月 21日 12:50 哈哈,你这个说法,“prompt”不好,这种类似的意思,其实也是我最早提出的。我当时针对“intent"这种提法。
"I regard the reliance on intent as a severe limitation, because human-bot conversation may not be about user’s intent at all. For example, what about the bot’s intent? Considering only user’s intent limits the application of bots to some boring application domains such as customer support, question answering, internet of things, or e-commerce, where user ask questions that bots try to answer or speak their wishes that bots try to fulfill."
https://juji.io/blog/three-big-ideas-be ... -platform/
#32 Re: Agent就是有“我”的语言模型
学习得有个什么东西在变化。目前的LLM,啥变化了,只有prompt变化了。
几个月之后的权重变化了,那就是个新LLM了,那不叫学习,那叫先天。等于出生了个新生儿,那不叫学习,那叫进化。
你们AGI人士不要乱用词。为了卖东西,什么词都给破坏了。这很不好。
与新生儿喝了孟婆汤一样,新LLM也是喝了孟婆汤的,所谓catastrophic forgetting,根本就不记得前世的episode了。
几个月之后的权重变化了,那就是个新LLM了,那不叫学习,那叫先天。等于出生了个新生儿,那不叫学习,那叫进化。
你们AGI人士不要乱用词。为了卖东西,什么词都给破坏了。这很不好。
与新生儿喝了孟婆汤一样,新LLM也是喝了孟婆汤的,所谓catastrophic forgetting,根本就不记得前世的episode了。
wdong 写了: 2025年 1月 21日 12:47 In context learning也是学习。但是你得站在一条一条对话的角度去看。如果你说所有的对话打一个包发过去,那这个过程中确实没有学习。但是这些对话都会作为下一轮的训练材料,还是会影响到几个月后模型的权重。
效率比较低,但是不是没有。
你说的实时改模型权重,我觉得并不是绕不过去的问题。有没有这个能力关系不大。现在所有模型都把context size作为核心指标,就是大家都认同了in context learning。
上次由 hci 在 2025年 1月 21日 13:41 修改。
原因: 未提供修改原因
原因: 未提供修改原因
#33 Re: Agent就是有“我”的语言模型
你2018的体系在哪里,麻烦你cite一下。hci 写了: 2025年 1月 20日 23:30 Llm先把学习搞定,再扯别的。
现在的llm是个死东西,不具備任何学习能力。stateless
Agent state都是外在的,这不就是我2018就提出的体系结构么?symbolic as the bones, data driven as the flesh
所以AGI people 己经认输了。
#34 Re: Agent就是有“我”的语言模型
一个出生后不具备学习功能的动物,与一个出生后还能学新东西的动物,二者之间是不是有天壤之别?
后者才是划时代的变化。
没有实现,就不要过早吹牛皮。
后者才是划时代的变化。
没有实现,就不要过早吹牛皮。
hci 写了: 2025年 1月 21日 12:55 学习得有个什么东西在变化。目前的LLM,啥变化了,只有prompt变化了。
几个月之后的权重变化了,那就是个新LLM了,那不叫学习,那叫先天。等于出生了个新生儿,那不叫学习,那叫进化。
你们AGI人士不要乱用词。为了卖东西,什么词都给破坏了。这很不好。
#35 Re: Agent就是有“我”的语言模型
Huahai Yang, A Clojure fusion of symbolic and data driven AI, Clojure/conj 2018.
连meta-circularity都实现了。就是你的“bootstraping"。
这些都是老AI的概念。70年代就有了。
CS没啥新鲜东西,就是一轮一轮的时尚。
连meta-circularity都实现了。就是你的“bootstraping"。
这些都是老AI的概念。70年代就有了。
CS没啥新鲜东西,就是一轮一轮的时尚。
x1

上次由 hci 在 2025年 1月 21日 13:09 修改。
原因: 未提供修改原因
原因: 未提供修改原因
#36 Re: Agent就是有“我”的语言模型
你这么说,冯诺伊曼架构提出来的时候就蕴含了程序自己修改自己的可能性,后来也有人研究过早期的自修改算法。我说的就是要系统性地发展和利用这个程序自修改的能力。在没有LLM的时候,这个事情做不了。现在可以了,做法就是用agent去做。agent改平台,改了的平台再运行agent,agent再改平台,这么鸡生蛋蛋生鸡地弄下去。什么时候中间不要人参与了,事情就成了。hci 写了: 2025年 1月 21日 13:00 Huahai Yang, A Clojure fusion of symbolic and data driven AI, Clojure/conj 2018.
连meta-circularity都提到了。就是你的“bootstraping"。
都是老AI的概念。70年代就有了。
你非要说这个不叫agent,那也可以,那就是运行程序 A改程序B,然后再运行程序B再改程序A,这么下去。
我想说的是:不以自修改为目标的agent平台都不足为惧。
#37 Re: Agent就是有“我”的语言模型
的确呀。
所以冯诺伊曼架构与AI是同时提出来的呀。当时MIT的讨论组,有Walter Pitts, Von Neumman,等等,讨论出来的。然后冯诺伊曼自己写了个文章,拿了credit。可在讨论的时候,他跟个傻逼一样,都是Walter PItts这个民科的主意。这段公案,后人是有记载的。
AI只所以被认为可能,就是因为冯诺伊曼架构呀,本质上两者就是一回事。
谁说的没有LLM就做不了?扯啥呢。LISP不就是不停修改自己么?老AI。
你们这些AGI人士真的是很不要脸呢。
所以冯诺伊曼架构与AI是同时提出来的呀。当时MIT的讨论组,有Walter Pitts, Von Neumman,等等,讨论出来的。然后冯诺伊曼自己写了个文章,拿了credit。可在讨论的时候,他跟个傻逼一样,都是Walter PItts这个民科的主意。这段公案,后人是有记载的。
AI只所以被认为可能,就是因为冯诺伊曼架构呀,本质上两者就是一回事。
谁说的没有LLM就做不了?扯啥呢。LISP不就是不停修改自己么?老AI。
你们这些AGI人士真的是很不要脸呢。
wdong 写了: 2025年 1月 21日 13:14 你这么说,冯诺伊曼架构提出来的时候就蕴含了程序自己修改自己的可能性,后来也有人研究过早期的自修改算法。我说的就是要系统性地发展和利用这个程序自修改的能力。在没有LLM的时候,这个事情做不了。现在可以了,做法就是用agent去做。agent改平台,改了的平台再运行agent,agent再改平台,这么鸡生蛋蛋生鸡地弄下去。什么时候中间不要人参与了,事情就成了。
你非要说这个不叫agent,那也可以,那就是运行程序 A改程序B,然后再运行程序B再改程序A,这么下去。
我想说的是:不以自修改为目标的agent平台都不足为惧。
上次由 hci 在 2025年 1月 21日 13:21 修改。
原因: 未提供修改原因
原因: 未提供修改原因
-
- 论坛支柱
2024年度优秀版主
TheMatrix 的博客 - 帖子互动: 264
- 帖子: 13298
- 注册时间: 2022年 7月 26日 00:35
#38 Re: Agent就是有“我”的语言模型
agent怎么改平台?wdong 写了: 2025年 1月 21日 13:14 你这么说,冯诺伊曼架构提出来的时候就蕴含了程序自己修改自己的可能性,后来也有人研究过早期的自修改算法。我说的就是要系统性地发展和利用这个程序自修改的能力。在没有LLM的时候,这个事情做不了。现在可以了,做法就是用agent去做。agent改平台,改了的平台再运行agent,agent再改平台,这么鸡生蛋蛋生鸡地弄下去。什么时候中间不要人参与了,事情就成了。
你非要说这个不叫agent,那也可以,那就是运行程序 A改程序B,然后再运行程序B再改程序A,这么下去。
我想说的是:不以自修改为目标的agent平台都不足为惧。
#39 Re: Agent就是有“我”的语言模型
LISP就是一个live image,不停自己改自己的live image. 这就是老AI。
要想自己改自己这个事做的容易,还是要回到LISP更简单。
要想自己改自己这个事做的容易,还是要回到LISP更简单。
-
- 论坛支柱
2024年度优秀版主
TheMatrix 的博客 - 帖子互动: 264
- 帖子: 13298
- 注册时间: 2022年 7月 26日 00:35
#40 Re: Agent就是有“我”的语言模型
你说的平台是Agent运行的平台,不是指LLM这个基础平台吧?wdong 写了: 2025年 1月 21日 13:14 你这么说,冯诺伊曼架构提出来的时候就蕴含了程序自己修改自己的可能性,后来也有人研究过早期的自修改算法。我说的就是要系统性地发展和利用这个程序自修改的能力。在没有LLM的时候,这个事情做不了。现在可以了,做法就是用agent去做。agent改平台,改了的平台再运行agent,agent再改平台,这么鸡生蛋蛋生鸡地弄下去。什么时候中间不要人参与了,事情就成了。
你非要说这个不叫agent,那也可以,那就是运行程序 A改程序B,然后再运行程序B再改程序A,这么下去。
我想说的是:不以自修改为目标的agent平台都不足为惧。
也就是有三个东西:LLM基础,agent平台,agent?