大语言模型LLM大方向可能不对

对应老买买提的军事天地,观点交锋比较激烈,反驳不留情面,请作好心理准备。因为此版帖子太多,所以新帖不出现在首页新帖列表,防止首页新帖刷屏太快。


版主: Softfist

netflix(nf)
论坛元老
论坛元老
帖子互动: 1092
帖子: 23589
注册时间: 2022年 8月 2日 04:48

#41 Re: 大语言模型LLM大方向可能不对

帖子 netflix(nf) »

hhcare 写了: 2023年 12月 19日 16:10 我为啥要反驳?
他心里知道我不是汉奸
只是看我活着,他不痛快发泄一下而已。。。。
草,你这个蓝皮汉奸17年没有去过中国,还算计着把你老娘的棺材本和养老金换成美元all in你美爹,对中国贡献是负的,你不是汉奸这版上就没人是汉奸了
头像
hhcare(钟馗)
版内封禁中版内封禁中

2024年度十大优秀网友
帖子互动: 2187
帖子: 62261
注册时间: 2022年 7月 29日 10:28

#42 Re: 大语言模型LLM大方向可能不对

帖子 hhcare(钟馗) »

netflix 写了: 2023年 12月 19日 16:12 草,你这个蓝皮汉奸17年没有去过中国,对中国贡献是负的,你不是汉奸这版上就没人是汉奸了
你想清除没有?
Chatgpt 到底干啥的?
你总是在关键问题上避开
拿汉奸做借口
上次由 hhcare 在 2023年 12月 19日 16:14 修改。
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 686
帖子: 27186
注册时间: 2022年 7月 24日 17:21

#43 Re: 大语言模型LLM大方向可能不对

帖子 Caravel楼主 »

da1gaku 写了: 2023年 12月 19日 16:10 这个可以argue其实人脑也只是概率计算器
不过人脑处理的信息种类多,不光是文字
人脑的信息处理有很强的纠错能力,LLM没有。

具体的说,人可以通过一些确凿的事实出发,推演出很多准确度很高的的结论,LLM没有这个功能,任何输入文本都是平权的。
da1gaku
论坛元老
论坛元老
帖子互动: 400
帖子: 18971
注册时间: 2022年 7月 23日 23:35

#44 Re: 大语言模型LLM大方向可能不对

帖子 da1gaku »

Caravel 写了: 2023年 12月 19日 16:14 人脑的信息处理有很强的纠错能力,LLM没有。

具体的说,人可以通过一些确凿的事实出发,推演出很多准确度很高的的结论,LLM没有这个功能,任何输入文本都是平权的。
对和错也有些是人为规定的,或者是语言特质决定的
机器不能天然判断,需要训练

比如一张马的画被归类为“马”,人类一般认为是对的
但某外星人可能认为马的一个低劣平面肖像跟马根本不能归为一类
netflix(nf)
论坛元老
论坛元老
帖子互动: 1092
帖子: 23589
注册时间: 2022年 8月 2日 04:48

#45 Re: 大语言模型LLM大方向可能不对

帖子 netflix(nf) »

Caravel 写了: 2023年 12月 19日 16:14 人脑的信息处理有很强的纠错能力,LLM没有。

具体的说,人可以通过一些确凿的事实出发,推演出很多准确度很高的的结论,LLM没有这个功能,任何输入文本都是平权的。
这个功能可以添加,LLM可以加入一个信息来源评级功能即可,比方说,顶级期刊的信息可靠度大于垃圾期刊的信息可靠度,正规媒体可靠度大于自媒体可靠度。人脑其实就是这样鉴别信息可靠度的,LLM同样可以做到。
头像
hhcare(钟馗)
版内封禁中版内封禁中

2024年度十大优秀网友
帖子互动: 2187
帖子: 62261
注册时间: 2022年 7月 29日 10:28

#46 Re: 大语言模型LLM大方向可能不对

帖子 hhcare(钟馗) »

netflix 写了: 2023年 12月 19日 16:18 这个功能可以添加,LLM可以加入一个信息来源评级功能即可,比方说,顶级期刊的信息可靠度大于垃圾期刊的信息可靠度,正规媒体可靠度大于自媒体可靠度。人脑其实就是这样鉴别信息可靠度的,LLM同样可以做到。
你昧着良心说谎
分明背后的邪恶公司可以。。。控制权重的。

不明白stem 和逻辑判断的llm
就是Netflix
netflix(nf)
论坛元老
论坛元老
帖子互动: 1092
帖子: 23589
注册时间: 2022年 8月 2日 04:48

#47 Re: 大语言模型LLM大方向可能不对

帖子 netflix(nf) »

hhcare 写了: 2023年 12月 19日 16:21 你昧着良心说谎
分明背后的邪恶公司可以。。。控制权重的
媒体还能发假新闻呢,市场上又不是只有一家LLM,消费者自然会选择
头像
hhcare(钟馗)
版内封禁中版内封禁中

2024年度十大优秀网友
帖子互动: 2187
帖子: 62261
注册时间: 2022年 7月 29日 10:28

#48 Re: 大语言模型LLM大方向可能不对

帖子 hhcare(钟馗) »

netflix 写了: 2023年 12月 19日 16:23 媒体还能发假新闻呢,市场上又不是只有一家LLM,消费者自然会选择
你牛逼
家里水电气。。。还有一切都有选择。。。
整个被洗得成傻逼了

美华有啥选择?
哪个媒体为美华说话了??
美国媒体是假新闻的问题吗??
rtscts
论坛精英
论坛精英
帖子互动: 864
帖子: 8188
注册时间: 2023年 9月 10日 15:11

#49 Re: 大语言模型LLM大方向可能不对

帖子 rtscts »

da1gaku 写了: 2023年 12月 19日 16:10 这个可以argue其实人脑也只是概率计算器
不过人脑处理的信息种类多,不光是文字
人脑可以产生新的概念和新的理论。LLM不行,LLM只能查询。
da1gaku
论坛元老
论坛元老
帖子互动: 400
帖子: 18971
注册时间: 2022年 7月 23日 23:35

#50 Re: 大语言模型LLM大方向可能不对

帖子 da1gaku »

rtscts 写了: 2023年 12月 19日 16:25 人脑可以产生新的概念和新的理论。LLM不行,LLM只能查询。
模型里可能也有新的概念和理论,以人类无法理解的形式
模型不会主动去发表新发现,但有时会体现出来
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 686
帖子: 27186
注册时间: 2022年 7月 24日 17:21

#51 Re: 大语言模型LLM大方向可能不对

帖子 Caravel楼主 »

netflix 写了: 2023年 12月 19日 16:18 这个功能可以添加,LLM可以加入一个信息来源评级功能即可,比方说,顶级期刊的信息可靠度大于垃圾期刊的信息可靠度,正规媒体可靠度大于自媒体可靠度。人脑其实就是这样鉴别信息可靠度的,LLM同样可以做到。
怎么添加,目前的架构不行?
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 686
帖子: 27186
注册时间: 2022年 7月 24日 17:21

#52 Re: 大语言模型LLM大方向可能不对

帖子 Caravel楼主 »

netflix 写了: 2023年 12月 19日 16:18 这个功能可以添加,LLM可以加入一个信息来源评级功能即可,比方说,顶级期刊的信息可靠度大于垃圾期刊的信息可靠度,正规媒体可靠度大于自媒体可靠度。人脑其实就是这样鉴别信息可靠度的,LLM同样可以做到。
怎么添加,目前的架构不行?
netflix(nf)
论坛元老
论坛元老
帖子互动: 1092
帖子: 23589
注册时间: 2022年 8月 2日 04:48

#53 Re: 大语言模型LLM大方向可能不对

帖子 netflix(nf) »

Caravel 写了: 2023年 12月 19日 16:29 怎么添加,目前的架构不行?
那你觉得人脑是怎么判断多重信息来源下怎么样鉴别出可靠信息的?

评级+交叉验证就行了。

LLM既然能人工标注信息,当然也可以标注信息来源可靠度,那种胡说八道的自媒体,直接评级可靠度为零就行了
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 686
帖子: 27186
注册时间: 2022年 7月 24日 17:21

#54 Re: 大语言模型LLM大方向可能不对

帖子 Caravel楼主 »

da1gaku 写了: 2023年 12月 19日 16:17 对和错也有些是人为规定的,或者是语言特质决定的
机器不能天然判断,需要训练

比如一张马的画被归类为“马”,人类一般认为是对的
但某外星人可能认为马的一个低劣平面肖像跟马根本不能归为一类
这不是关键,人类知道各种纠错机制,比如不知道是不是马,可以去问兽医。比如不理解你的提问,可以再问你十几个问题澄清一下。一次不行两次,沟通几十次把问题搞清楚
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 686
帖子: 27186
注册时间: 2022年 7月 24日 17:21

#55 Re: 大语言模型LLM大方向可能不对

帖子 Caravel楼主 »

netflix 写了: 2023年 12月 19日 16:33 那你觉得人脑是怎么判断多重信息来源下怎么样鉴别出可靠信息的?

评级+交叉验证就行了。

LLM既然能人工标注信息,当然也可以标注信息来源可靠度,那种胡说八道的自媒体,直接评级可靠度为零就行了
首先信息存储就是有分级别的,ground truth,看书的,上网看的,还有推理可以多轮交流
rtscts
论坛精英
论坛精英
帖子互动: 864
帖子: 8188
注册时间: 2023年 9月 10日 15:11

#56 Re: 大语言模型LLM大方向可能不对

帖子 rtscts »

总而言之,在人类没有确实明白智能和意识到底是什么之前,这些基于机械概率计算的大语言模型只能称为下一代的数据库。
头像
hhcare(钟馗)
版内封禁中版内封禁中

2024年度十大优秀网友
帖子互动: 2187
帖子: 62261
注册时间: 2022年 7月 29日 10:28

#57 Re: 大语言模型LLM大方向可能不对

帖子 hhcare(钟馗) »

netflix 写了: 2023年 12月 19日 14:48 给LLM加上给用户评级的功能,挑选出可靠输入数据并且交叉验证来纠错。这其实正类似于人类现实世界里的纠错功能,人类在现实世界里也同样被海量信息冲击,但是人类可以自我定义一个信息是否可靠的鉴别机制,比如政治自媒体不可靠,多个正规媒体并能交叉验证算可靠,正规学术书刊算可靠,等等。
你扯淡半天还是不能回答, 根本问题。 就是trust
你知道背后是啥呢?如果挑选合适时刻evil害你, 怎么办。。

比如平常医生都显得慈眉善目的, 可是当你不能喊, 或跟前没有人的时候, 活摘怎么办?
医院你可以不去, 但是平日的很多事情在你不知道的情况下, 可能坑死你,
你如何相信chatgpt?
netflix(nf)
论坛元老
论坛元老
帖子互动: 1092
帖子: 23589
注册时间: 2022年 8月 2日 04:48

#58 Re: 大语言模型LLM大方向可能不对

帖子 netflix(nf) »

hhcare 写了: 2023年 12月 19日 16:54 你扯淡半天还是不能回答, 根本问题。 就是trust
你知道背后是啥呢?如果挑选合适时刻evil害你, 怎么办。。

比如平常医生都显得慈眉善目的, 可是当你不能喊, 或跟前没有人的时候, 活摘怎么办?
医院你可以不去, 但是平日的很多事情在你不知道的情况下, 可能坑死你,
你如何相信chatgpt?
比如你这种言行不一的,嘴上喊着要回国,行动上17年没回过国。一边喊买不起中国的房子,一边要丈母娘和老娘把棺材本和退休金都拿出来换成美元再all in你美爹第二套房。

你的评级可以定为0,因为垃圾信息太多,会污染人工智能库。
FGH
论坛精英
论坛精英
帖子互动: 106
帖子: 7046
注册时间: 2022年 7月 25日 16:30

#59 Re: 大语言模型LLM大方向可能不对

帖子 FGH »

Caravel 写了: 2023年 12月 19日 16:14 人脑的信息处理有很强的纠错能力,LLM没有。

具体的说,人可以通过一些确凿的事实出发,推演出很多准确度很高的的结论,LLM没有这个功能,任何输入文本都是平权的。
你问GPT问题敲错字,GPT经常能明白你的意思。
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 686
帖子: 27186
注册时间: 2022年 7月 24日 17:21

#60 Re: 大语言模型LLM大方向可能不对

帖子 Caravel楼主 »

FGH 写了: 2023年 12月 19日 17:01 你问GPT问题敲错字,GPT经常能明白你的意思。
那个是很低层次的纠错。
回复

回到 “军事天地(Military)”