大语言模型LLM大方向可能不对
版主: Softfist
-
- 论坛元老
Caravel 的博客 - 帖子互动: 686
- 帖子: 27186
- 注册时间: 2022年 7月 24日 17:21
#1 大语言模型LLM大方向可能不对
大语言模型到底是语言的model,还是智能的model,我怀疑是前者。
真正的人工智能,需要的input很少,一个小孩学到大学,读的书,跟人说的话,可能不到现在LLM训练材料的万分之一。人工智能的体现在于输入很少,输出很多,LLM是输入很多,输出很多。
真正的人工智能,需要的input很少,一个小孩学到大学,读的书,跟人说的话,可能不到现在LLM训练材料的万分之一。人工智能的体现在于输入很少,输出很多,LLM是输入很多,输出很多。
#3 Re: 大语言模型LLM大方向可能不对
难道你没意识到LLM能输出的知识和一个小孩输出的不在一个数量级?Caravel 写了: 2023年 12月 19日 14:14 大语言模型到底是语言的model,还是智能的model,我怀疑是前者。
真正的人工智能,需要的input很少,一个小孩学到大学,读的书,跟人说的话,可能不到现在LLM训练材料的万分之一。人工智能的体现在于输入很少,输出很多,LLM是输入很多,输出很多。
-
- 论坛元老
Caravel 的博客 - 帖子互动: 686
- 帖子: 27186
- 注册时间: 2022年 7月 24日 17:21
-
- 论坛元老
sjtuvincent 的博客 - 帖子互动: 811
- 帖子: 35576
- 注册时间: 2022年 10月 16日 10:31
#8 Re: 大语言模型LLM大方向可能不对
初级阶段,机器人那么笨,需要更多输入Caravel 写了: 2023年 12月 19日 14:14 大语言模型到底是语言的model,还是智能的model,我怀疑是前者。
真正的人工智能,需要的input很少,一个小孩学到大学,读的书,跟人说的话,可能不到现在LLM训练材料的万分之一。人工智能的体现在于输入很少,输出很多,LLM是输入很多,输出很多。
等到输入少,输出多的时候,地球人会害怕的
-
- 论坛元老
Caravel 的博客 - 帖子互动: 686
- 帖子: 27186
- 注册时间: 2022年 7月 24日 17:21
#11 Re: 大语言模型LLM大方向可能不对
你这个想法很不错。Caravel 写了: 2023年 12月 19日 14:14 大语言模型到底是语言的model,还是智能的model,我怀疑是前者。
真正的人工智能,需要的input很少,一个小孩学到大学,读的书,跟人说的话,可能不到现在LLM训练材料的万分之一。人工智能的体现在于输入很少,输出很多,LLM是输入很多,输出很多。
#13 Re: 大语言模型LLM大方向可能不对
智能这东西没有严格定义。
比如一个正常人要学会一门外语,并能翻译学术文章,至少要十年八年。
大模型很短时间就能做到十几种语言高质量互译。
这个算不算智能呢?这不是简单的知识存储和调用。
-
- 论坛元老
Caravel 的博客 - 帖子互动: 686
- 帖子: 27186
- 注册时间: 2022年 7月 24日 17:21
#15 Re: 大语言模型LLM大方向可能不对
小孩和特别是成人的给出的回答是高度可靠的,而且通过纠错进一步提高。LLM没有纠错机制。netflix 写了: 2023年 12月 19日 14:27 我觉得楼主没有理解,训练的材料多,带来的直接优势是知识面,一个小孩甚至一个成人的知识面是有限的,而LLM是全面的知识面,可以回答不同方面的问题
#16 Re: 大语言模型LLM大方向可能不对
只是现在的LLM没有纠错机制而已,因为现在LLM是训练好的模型,不实时利用输入数据纠错。
可以想象,将来的LLM可以加入这个功能,但是前提是判断哪些人类用户属于专家用户或权威用户,他们的输入会更加可靠可以用来交叉验证,同时要防止被低端用户甚至恶意错误输入干扰智能库。
就好比现实世界,如果有人信任政治自媒体的输入,相信北约陆军总司令中将罗杰被活捉,这样的人在智能上就被垃圾信息输入降级了。LLM只要能做到防止被垃圾信息输入干扰智能就行了。我认为实现这一点不难。
-
- 论坛元老
wanmeishijie 的博客 - 帖子互动: 2280
- 帖子: 71527
- 注册时间: 2022年 12月 10日 23:58
#18 Re: 大语言模型LLM大方向可能不对
现在也可以训练。之前GPT理解并说漏嘴道出谢永获得7000万美元的赔偿,现在再也不这么说了,守口如瓶的很。耗子肯定训练了GPTnetflix 写了: 2023年 12月 19日 14:39 只是现在的LLM没有纠错机制而已,因为现在LLM是训练好的模型,不实时利用输入数据纠错。
可以想象,将来的LLM可以加入这个功能,但是前提是判断哪些人类用户属于专家用户或权威用户,他们的输入会更加可靠可以用来交叉验证,同时要防止被低端用户甚至恶意错误输入干扰智能库。
就好比现实世界,如果有人信任政治自媒体的输入,相信北约陆军总司令中将罗杰被活捉,这样的人在智能上就被垃圾信息输入降级了。LLM只要能做到防止被垃圾信息输入干扰智能就行了。我认为实现这一点不难。
x1

#19 Re: 大语言模型LLM大方向可能不对
给LLM加上给用户评级的功能,挑选出可靠输入数据并且交叉验证来纠错。这其实正类似于人类现实世界里的纠错功能,人类在现实世界里也同样被海量信息冲击,但是人类可以自我定义一个信息是否可靠的鉴别机制,比如政治自媒体不可靠,多个正规媒体并能交叉验证算可靠,正规学术书刊算可靠,等等。netflix 写了: 2023年 12月 19日 14:39 只是现在的LLM没有纠错机制而已,因为现在LLM是训练好的模型,不实时利用输入数据纠错。
可以想象,将来的LLM可以加入这个功能,但是前提是判断哪些人类用户属于专家用户或权威用户,他们的输入会更加可靠可以用来交叉验证,同时要防止被低端用户甚至恶意错误输入干扰智能库。
就好比现实世界,如果有人信任政治自媒体的输入,相信北约陆军总司令中将罗杰被活捉,这样的人在智能上就被垃圾信息输入降级了。LLM只要能做到防止被垃圾信息输入干扰智能就行了。我认为实现这一点不难。
#20 Re: 大语言模型LLM大方向可能不对
chatgpt号称现在的版本是一两年以前训练好的,按理不会被新输入干扰wanmeishijie 写了: 2023年 12月 19日 14:46 现在也可以训练。之前GPT理解并说漏嘴道出谢永获得7000万美元的赔偿,现在再也不这么说了,守口如瓶的很。耗子肯定训练了GPT