草,你这个蓝皮汉奸17年没有去过中国,还算计着把你老娘的棺材本和养老金换成美元all in你美爹,对中国贡献是负的,你不是汉奸这版上就没人是汉奸了
大语言模型LLM大方向可能不对
版主: Softfist
#42 Re: 大语言模型LLM大方向可能不对
你想清除没有?
Chatgpt 到底干啥的?
你总是在关键问题上避开
拿汉奸做借口
上次由 hhcare 在 2023年 12月 19日 16:14 修改。
-
- 论坛元老
Caravel 的博客 - 帖子互动: 686
- 帖子: 27186
- 注册时间: 2022年 7月 24日 17:21
#43 Re: 大语言模型LLM大方向可能不对
人脑的信息处理有很强的纠错能力,LLM没有。
具体的说,人可以通过一些确凿的事实出发,推演出很多准确度很高的的结论,LLM没有这个功能,任何输入文本都是平权的。
#44 Re: 大语言模型LLM大方向可能不对
对和错也有些是人为规定的,或者是语言特质决定的Caravel 写了: 2023年 12月 19日 16:14 人脑的信息处理有很强的纠错能力,LLM没有。
具体的说,人可以通过一些确凿的事实出发,推演出很多准确度很高的的结论,LLM没有这个功能,任何输入文本都是平权的。
机器不能天然判断,需要训练
比如一张马的画被归类为“马”,人类一般认为是对的
但某外星人可能认为马的一个低劣平面肖像跟马根本不能归为一类
#45 Re: 大语言模型LLM大方向可能不对
这个功能可以添加,LLM可以加入一个信息来源评级功能即可,比方说,顶级期刊的信息可靠度大于垃圾期刊的信息可靠度,正规媒体可靠度大于自媒体可靠度。人脑其实就是这样鉴别信息可靠度的,LLM同样可以做到。Caravel 写了: 2023年 12月 19日 16:14 人脑的信息处理有很强的纠错能力,LLM没有。
具体的说,人可以通过一些确凿的事实出发,推演出很多准确度很高的的结论,LLM没有这个功能,任何输入文本都是平权的。
#46 Re: 大语言模型LLM大方向可能不对
你昧着良心说谎netflix 写了: 2023年 12月 19日 16:18 这个功能可以添加,LLM可以加入一个信息来源评级功能即可,比方说,顶级期刊的信息可靠度大于垃圾期刊的信息可靠度,正规媒体可靠度大于自媒体可靠度。人脑其实就是这样鉴别信息可靠度的,LLM同样可以做到。
分明背后的邪恶公司可以。。。控制权重的。
不明白stem 和逻辑判断的llm
就是Netflix
-
- 论坛元老
Caravel 的博客 - 帖子互动: 686
- 帖子: 27186
- 注册时间: 2022年 7月 24日 17:21
#51 Re: 大语言模型LLM大方向可能不对
怎么添加,目前的架构不行?netflix 写了: 2023年 12月 19日 16:18 这个功能可以添加,LLM可以加入一个信息来源评级功能即可,比方说,顶级期刊的信息可靠度大于垃圾期刊的信息可靠度,正规媒体可靠度大于自媒体可靠度。人脑其实就是这样鉴别信息可靠度的,LLM同样可以做到。
-
- 论坛元老
Caravel 的博客 - 帖子互动: 686
- 帖子: 27186
- 注册时间: 2022年 7月 24日 17:21
#52 Re: 大语言模型LLM大方向可能不对
怎么添加,目前的架构不行?netflix 写了: 2023年 12月 19日 16:18 这个功能可以添加,LLM可以加入一个信息来源评级功能即可,比方说,顶级期刊的信息可靠度大于垃圾期刊的信息可靠度,正规媒体可靠度大于自媒体可靠度。人脑其实就是这样鉴别信息可靠度的,LLM同样可以做到。
#53 Re: 大语言模型LLM大方向可能不对
那你觉得人脑是怎么判断多重信息来源下怎么样鉴别出可靠信息的?
评级+交叉验证就行了。
LLM既然能人工标注信息,当然也可以标注信息来源可靠度,那种胡说八道的自媒体,直接评级可靠度为零就行了
-
- 论坛元老
Caravel 的博客 - 帖子互动: 686
- 帖子: 27186
- 注册时间: 2022年 7月 24日 17:21
#54 Re: 大语言模型LLM大方向可能不对
这不是关键,人类知道各种纠错机制,比如不知道是不是马,可以去问兽医。比如不理解你的提问,可以再问你十几个问题澄清一下。一次不行两次,沟通几十次把问题搞清楚da1gaku 写了: 2023年 12月 19日 16:17 对和错也有些是人为规定的,或者是语言特质决定的
机器不能天然判断,需要训练
比如一张马的画被归类为“马”,人类一般认为是对的
但某外星人可能认为马的一个低劣平面肖像跟马根本不能归为一类
-
- 论坛元老
Caravel 的博客 - 帖子互动: 686
- 帖子: 27186
- 注册时间: 2022年 7月 24日 17:21
#55 Re: 大语言模型LLM大方向可能不对
首先信息存储就是有分级别的,ground truth,看书的,上网看的,还有推理可以多轮交流netflix 写了: 2023年 12月 19日 16:33 那你觉得人脑是怎么判断多重信息来源下怎么样鉴别出可靠信息的?
评级+交叉验证就行了。
LLM既然能人工标注信息,当然也可以标注信息来源可靠度,那种胡说八道的自媒体,直接评级可靠度为零就行了
#57 Re: 大语言模型LLM大方向可能不对
你扯淡半天还是不能回答, 根本问题。 就是trustnetflix 写了: 2023年 12月 19日 14:48 给LLM加上给用户评级的功能,挑选出可靠输入数据并且交叉验证来纠错。这其实正类似于人类现实世界里的纠错功能,人类在现实世界里也同样被海量信息冲击,但是人类可以自我定义一个信息是否可靠的鉴别机制,比如政治自媒体不可靠,多个正规媒体并能交叉验证算可靠,正规学术书刊算可靠,等等。
你知道背后是啥呢?如果挑选合适时刻evil害你, 怎么办。。
比如平常医生都显得慈眉善目的, 可是当你不能喊, 或跟前没有人的时候, 活摘怎么办?
医院你可以不去, 但是平日的很多事情在你不知道的情况下, 可能坑死你,
你如何相信chatgpt?
#58 Re: 大语言模型LLM大方向可能不对
比如你这种言行不一的,嘴上喊着要回国,行动上17年没回过国。一边喊买不起中国的房子,一边要丈母娘和老娘把棺材本和退休金都拿出来换成美元再all in你美爹第二套房。hhcare 写了: 2023年 12月 19日 16:54 你扯淡半天还是不能回答, 根本问题。 就是trust
你知道背后是啥呢?如果挑选合适时刻evil害你, 怎么办。。
比如平常医生都显得慈眉善目的, 可是当你不能喊, 或跟前没有人的时候, 活摘怎么办?
医院你可以不去, 但是平日的很多事情在你不知道的情况下, 可能坑死你,
你如何相信chatgpt?
你的评级可以定为0,因为垃圾信息太多,会污染人工智能库。
#59 Re: 大语言模型LLM大方向可能不对
你问GPT问题敲错字,GPT经常能明白你的意思。Caravel 写了: 2023年 12月 19日 16:14 人脑的信息处理有很强的纠错能力,LLM没有。
具体的说,人可以通过一些确凿的事实出发,推演出很多准确度很高的的结论,LLM没有这个功能,任何输入文本都是平权的。
-
- 论坛元老
Caravel 的博客 - 帖子互动: 686
- 帖子: 27186
- 注册时间: 2022年 7月 24日 17:21