大语言模型LLM大方向可能不对

对应老买买提的军事天地,观点交锋比较激烈,反驳不留情面,请作好心理准备。因为此版帖子太多,所以新帖不出现在首页新帖列表,防止首页新帖刷屏太快。


版主: Softfist

回复
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 685
帖子: 27167
注册时间: 2022年 7月 24日 17:21

#1 大语言模型LLM大方向可能不对

帖子 Caravel楼主 »

大语言模型到底是语言的model,还是智能的model,我怀疑是前者。

真正的人工智能,需要的input很少,一个小孩学到大学,读的书,跟人说的话,可能不到现在LLM训练材料的万分之一。人工智能的体现在于输入很少,输出很多,LLM是输入很多,输出很多。
头像
hhcare(钟馗)
版内封禁中版内封禁中

2024年度十大优秀网友
帖子互动: 2187
帖子: 62257
注册时间: 2022年 7月 29日 10:28

#2 Re: 大语言模型LLM大方向可能不对

帖子 hhcare(钟馗) »

牛逼。
netflix(nf)
论坛元老
论坛元老
帖子互动: 1092
帖子: 23586
注册时间: 2022年 8月 2日 04:48

#3 Re: 大语言模型LLM大方向可能不对

帖子 netflix(nf) »

Caravel 写了: 2023年 12月 19日 14:14 大语言模型到底是语言的model,还是智能的model,我怀疑是前者。

真正的人工智能,需要的input很少,一个小孩学到大学,读的书,跟人说的话,可能不到现在LLM训练材料的万分之一。人工智能的体现在于输入很少,输出很多,LLM是输入很多,输出很多。
难道你没意识到LLM能输出的知识和一个小孩输出的不在一个数量级?
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 685
帖子: 27167
注册时间: 2022年 7月 24日 17:21

#4 Re: 大语言模型LLM大方向可能不对

帖子 Caravel楼主 »

netflix 写了: 2023年 12月 19日 14:15 难道你没意识到LLM能输出的知识和一个小孩输出的不在一个数量级?
机械式的输出,真正的智能输出还不如小孩。
follett
著名点评
著名点评
帖子互动: 161
帖子: 3752
注册时间: 2022年 8月 13日 15:10

#5 Re: 大语言模型LLM大方向可能不对

帖子 follett »

至少今年是叫好不叫座。有一些公司在AI投入很多,但并没有得到应有回报,产品卖不出去。
da1gaku
论坛元老
论坛元老
帖子互动: 400
帖子: 18958
注册时间: 2022年 7月 23日 23:35

#6 Re: 大语言模型LLM大方向可能不对

帖子 da1gaku »

人是多模式学习,文字、声音、图像、气味、触觉…一起学习
大语言模型的学习过程差远了
netflix(nf)
论坛元老
论坛元老
帖子互动: 1092
帖子: 23586
注册时间: 2022年 8月 2日 04:48

#7 Re: 大语言模型LLM大方向可能不对

帖子 netflix(nf) »

Caravel 写了: 2023年 12月 19日 14:17 机械式的输出,真正的智能输出还不如小孩。
如何定义智能,如果是做题的智能应该全面超过了,你是指的创造力吧
sjtuvincent(环球商务客)
论坛元老
论坛元老
sjtuvincent 的博客
帖子互动: 811
帖子: 35576
注册时间: 2022年 10月 16日 10:31

#8 Re: 大语言模型LLM大方向可能不对

帖子 sjtuvincent(环球商务客) »

Caravel 写了: 2023年 12月 19日 14:14 大语言模型到底是语言的model,还是智能的model,我怀疑是前者。

真正的人工智能,需要的input很少,一个小孩学到大学,读的书,跟人说的话,可能不到现在LLM训练材料的万分之一。人工智能的体现在于输入很少,输出很多,LLM是输入很多,输出很多。
初级阶段,机器人那么笨,需要更多输入

等到输入少,输出多的时候,地球人会害怕的
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 685
帖子: 27167
注册时间: 2022年 7月 24日 17:21

#9 Re: 大语言模型LLM大方向可能不对

帖子 Caravel楼主 »

da1gaku 写了: 2023年 12月 19日 14:18 人是多模式学习,文字、声音、图像、气味、触觉…一起学习
大语言模型的学习过程差远了
所以我说LLM是语言的模型,可以用来储存语言,但是不具备智能。
头像
hhcare(钟馗)
版内封禁中版内封禁中

2024年度十大优秀网友
帖子互动: 2187
帖子: 62257
注册时间: 2022年 7月 29日 10:28

#10 Re: 大语言模型LLM大方向可能不对

帖子 hhcare(钟馗) »

netflix 写了: 2023年 12月 19日 14:18 如何定义智能,如果是做题的智能应该全面超过了,你是指的创造力吧
你分那么清干嘛?

限制词加多了, 就是面,承认就行了。
lionelliu
知名作家
知名作家
帖子互动: 37
帖子: 1005
注册时间: 2022年 9月 16日 13:42

#11 Re: 大语言模型LLM大方向可能不对

帖子 lionelliu »

Caravel 写了: 2023年 12月 19日 14:14 大语言模型到底是语言的model,还是智能的model,我怀疑是前者。

真正的人工智能,需要的input很少,一个小孩学到大学,读的书,跟人说的话,可能不到现在LLM训练材料的万分之一。人工智能的体现在于输入很少,输出很多,LLM是输入很多,输出很多。
你这个想法很不错。
netflix(nf)
论坛元老
论坛元老
帖子互动: 1092
帖子: 23586
注册时间: 2022年 8月 2日 04:48

#12 Re: 大语言模型LLM大方向可能不对

帖子 netflix(nf) »

hhcare 写了: 2023年 12月 19日 14:21 你分那么清干嘛?

限制词加多了, 就是面,承认就行了。
我觉得楼主没有理解,训练的材料多,带来的直接优势是知识面,一个小孩甚至一个成人的知识面是有限的,而LLM是全面的知识面,可以回答不同方面的问题
da1gaku
论坛元老
论坛元老
帖子互动: 400
帖子: 18958
注册时间: 2022年 7月 23日 23:35

#13 Re: 大语言模型LLM大方向可能不对

帖子 da1gaku »

Caravel 写了: 2023年 12月 19日 14:20 所以我说LLM是语言的模型,可以用来储存语言,但是不具备智能。
智能这东西没有严格定义。

比如一个正常人要学会一门外语,并能翻译学术文章,至少要十年八年。
大模型很短时间就能做到十几种语言高质量互译。
这个算不算智能呢?这不是简单的知识存储和调用。
midlander
论坛元老
论坛元老
帖子互动: 799
帖子: 32986
注册时间: 2022年 8月 5日 14:58

#14 Re: 大语言模型LLM大方向可能不对

帖子 midlander »

你理解错了,一个人从小到大学的知识其实非常非常多

但是99%的知识是通过别人间接输入的
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 685
帖子: 27167
注册时间: 2022年 7月 24日 17:21

#15 Re: 大语言模型LLM大方向可能不对

帖子 Caravel楼主 »

netflix 写了: 2023年 12月 19日 14:27 我觉得楼主没有理解,训练的材料多,带来的直接优势是知识面,一个小孩甚至一个成人的知识面是有限的,而LLM是全面的知识面,可以回答不同方面的问题
小孩和特别是成人的给出的回答是高度可靠的,而且通过纠错进一步提高。LLM没有纠错机制。
netflix(nf)
论坛元老
论坛元老
帖子互动: 1092
帖子: 23586
注册时间: 2022年 8月 2日 04:48

#16 Re: 大语言模型LLM大方向可能不对

帖子 netflix(nf) »

Caravel 写了: 2023年 12月 19日 14:31 小孩和特别是成人的给出的回答是高度可靠的,而且通过纠错进一步提高。LLM没有纠错机制。
只是现在的LLM没有纠错机制而已,因为现在LLM是训练好的模型,不实时利用输入数据纠错。

可以想象,将来的LLM可以加入这个功能,但是前提是判断哪些人类用户属于专家用户或权威用户,他们的输入会更加可靠可以用来交叉验证,同时要防止被低端用户甚至恶意错误输入干扰智能库。

就好比现实世界,如果有人信任政治自媒体的输入,相信北约陆军总司令中将罗杰被活捉,这样的人在智能上就被垃圾信息输入降级了。LLM只要能做到防止被垃圾信息输入干扰智能就行了。我认为实现这一点不难。
Tutu
见习点评
见习点评
帖子互动: 92
帖子: 1413
注册时间: 2022年 7月 25日 11:18

#17 Re: 大语言模型LLM大方向可能不对

帖子 Tutu »

在翻译和写作方面 LLM很成功
但是deploy是个问题
coding也可以
其他的一般
wanmeishijie(石昊)
论坛元老
论坛元老
wanmeishijie 的博客
帖子互动: 2278
帖子: 71517
注册时间: 2022年 12月 10日 23:58

#18 Re: 大语言模型LLM大方向可能不对

帖子 wanmeishijie(石昊) »

netflix 写了: 2023年 12月 19日 14:39 只是现在的LLM没有纠错机制而已,因为现在LLM是训练好的模型,不实时利用输入数据纠错。

可以想象,将来的LLM可以加入这个功能,但是前提是判断哪些人类用户属于专家用户或权威用户,他们的输入会更加可靠可以用来交叉验证,同时要防止被低端用户甚至恶意错误输入干扰智能库。

就好比现实世界,如果有人信任政治自媒体的输入,相信北约陆军总司令中将罗杰被活捉,这样的人在智能上就被垃圾信息输入降级了。LLM只要能做到防止被垃圾信息输入干扰智能就行了。我认为实现这一点不难。
现在也可以训练。之前GPT理解并说漏嘴道出谢永获得7000万美元的赔偿,现在再也不这么说了,守口如瓶的很。耗子肯定训练了GPT
x1 图片
netflix(nf)
论坛元老
论坛元老
帖子互动: 1092
帖子: 23586
注册时间: 2022年 8月 2日 04:48

#19 Re: 大语言模型LLM大方向可能不对

帖子 netflix(nf) »

netflix 写了: 2023年 12月 19日 14:39 只是现在的LLM没有纠错机制而已,因为现在LLM是训练好的模型,不实时利用输入数据纠错。

可以想象,将来的LLM可以加入这个功能,但是前提是判断哪些人类用户属于专家用户或权威用户,他们的输入会更加可靠可以用来交叉验证,同时要防止被低端用户甚至恶意错误输入干扰智能库。

就好比现实世界,如果有人信任政治自媒体的输入,相信北约陆军总司令中将罗杰被活捉,这样的人在智能上就被垃圾信息输入降级了。LLM只要能做到防止被垃圾信息输入干扰智能就行了。我认为实现这一点不难。
给LLM加上给用户评级的功能,挑选出可靠输入数据并且交叉验证来纠错。这其实正类似于人类现实世界里的纠错功能,人类在现实世界里也同样被海量信息冲击,但是人类可以自我定义一个信息是否可靠的鉴别机制,比如政治自媒体不可靠,多个正规媒体并能交叉验证算可靠,正规学术书刊算可靠,等等。
netflix(nf)
论坛元老
论坛元老
帖子互动: 1092
帖子: 23586
注册时间: 2022年 8月 2日 04:48

#20 Re: 大语言模型LLM大方向可能不对

帖子 netflix(nf) »

wanmeishijie 写了: 2023年 12月 19日 14:46 现在也可以训练。之前GPT理解并说漏嘴道出谢永获得7000万美元的赔偿,现在再也不这么说了,守口如瓶的很。耗子肯定训练了GPT
chatgpt号称现在的版本是一两年以前训练好的,按理不会被新输入干扰
回复

回到 “军事天地(Military)”