大语言模型LLM大方向可能不对

对应老买买提的军事天地,观点交锋比较激烈,反驳不留情面,请作好心理准备。因为此版帖子太多,所以新帖不出现在首页新帖列表,防止首页新帖刷屏太快。


版主: Softfist

回复
FGH
论坛精英
论坛精英
帖子互动: 106
帖子: 7046
注册时间: 2022年 7月 25日 16:30

#71 Re: 大语言模型LLM大方向可能不对

帖子 FGH »

最容易取代的是翻译工作。
xiaoju(可爱的龙猫)
论坛元老
论坛元老
帖子互动: 1097
帖子: 26390
注册时间: 2023年 9月 5日 20:18

#72 Re: 大语言模型LLM大方向可能不对

帖子 xiaoju(可爱的龙猫) »

LLM是问一句说一大段废话,知乎文体。
Caravel 写了: 2023年 12月 19日 14:14 大语言模型到底是语言的model,还是智能的model,我怀疑是前者。

真正的人工智能,需要的input很少,一个小孩学到大学,读的书,跟人说的话,可能不到现在LLM训练材料的万分之一。人工智能的体现在于输入很少,输出很多,LLM是输入很多,输出很多。
xiaoju(可爱的龙猫)
论坛元老
论坛元老
帖子互动: 1097
帖子: 26390
注册时间: 2023年 9月 5日 20:18

#73 Re: 大语言模型LLM大方向可能不对

帖子 xiaoju(可爱的龙猫) »

文科生也没那么便宜,现在连训练数据都互相剽窃没人做,谷歌刚被人爆料抄了百度的。
hahan 写了: 2023年 12月 19日 17:36 搞笑
几个文科生才多少钱
都不够fine tune 的电费
如果只能搞出这种incremental 的应用
那的确没前途
da1gaku
论坛元老
论坛元老
帖子互动: 400
帖子: 18971
注册时间: 2022年 7月 23日 23:35

#74 Re: 大语言模型LLM大方向可能不对

帖子 da1gaku »

xiaoju 写了: 2023年 12月 19日 17:48 LLM是问一句说一大段废话,知乎文体。
这取决于你问什么问题。

我们现在用GPT来生成一些JSON文档,基本没有多余信息。
当然API比免费ChatGPT可选参数要多一些
xiaoju(可爱的龙猫)
论坛元老
论坛元老
帖子互动: 1097
帖子: 26390
注册时间: 2023年 9月 5日 20:18

#75 Re: 大语言模型LLM大方向可能不对

帖子 xiaoju(可爱的龙猫) »

你那个问题太简单了

比如我问个国际民法的比较问题,它就极尽可能的扯淡,回避具体事实。
da1gaku 写了: 2023年 12月 19日 17:51 这取决于你问什么问题。

我们现在用GPT来生成一些JSON文档,基本没有多余信息。
当然API比免费ChatGPT可选参数要多一些
da1gaku
论坛元老
论坛元老
帖子互动: 400
帖子: 18971
注册时间: 2022年 7月 23日 23:35

#76 Re: 大语言模型LLM大方向可能不对

帖子 da1gaku »

xiaoju 写了: 2023年 12月 19日 17:54 你那个问题太简单了

比如我问个国际民法的比较问题,它就极尽可能的扯淡,回避具体事实。
我们的问题并不简单,都是一些数据分析。只是针对性相对强一些,不是你说的那种开放性问题。

你让ChatGPT帮你总结一大段话,或者解释一大段法律条文,一般效果都不错。
xiaoju(可爱的龙猫)
论坛元老
论坛元老
帖子互动: 1097
帖子: 26390
注册时间: 2023年 9月 5日 20:18

#77 Re: 大语言模型LLM大方向可能不对

帖子 xiaoju(可爱的龙猫) »

不是开放性问题,我问的就是简单的总结后比较,法律学生查条文的体力活。

我感觉ChatGPT过分依赖内在记忆了,实际上人类都是靠记忆写个大概,然后现查资料核实。
da1gaku 写了: 2023年 12月 19日 17:55 我们的问题并不简单,都是一些数据分析。只是针对性相对强一些,不是你说的那种开放性问题。

你让ChatGPT帮你总结一大段话,或者解释一大段法律条文,一般效果都不错。
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 686
帖子: 27186
注册时间: 2022年 7月 24日 17:21

#78 Re: 大语言模型LLM大方向可能不对

帖子 Caravel楼主 »

xiaoju 写了: 2023年 12月 19日 17:48 LLM是问一句说一大段废话,知乎文体。
这个比喻不错,LLM可以很好替代那种百家号,白家号比如新智元之类的经常需要写很长一段机器学习的论文介绍,一般就是小编货轮吞枣看一下paper,写一下似是而非的,反正大家就是去看个热闹。
Caravel楼主
论坛元老
论坛元老
Caravel 的博客
帖子互动: 686
帖子: 27186
注册时间: 2022年 7月 24日 17:21

#79 Re: 大语言模型LLM大方向可能不对

帖子 Caravel楼主 »

da1gaku 写了: 2023年 12月 19日 17:55 我们的问题并不简单,都是一些数据分析。只是针对性相对强一些,不是你说的那种开放性问题。

你让ChatGPT帮你总结一大段话,或者解释一大段法律条文,一般效果都不错。
只要有百分之一的错误率就不能serious用,和自动驾驶一样

只有差个广告,写个新闻摘要非关键性任务可以用
da1gaku
论坛元老
论坛元老
帖子互动: 400
帖子: 18971
注册时间: 2022年 7月 23日 23:35

#80 Re: 大语言模型LLM大方向可能不对

帖子 da1gaku »

Caravel 写了: 2023年 12月 19日 18:20 只要有百分之一的错误率就不能serious用,和自动驾驶一样
有很多工作并不需要100%准确,或者人的准确性也不高
hahan
论坛元老
论坛元老
hahan 的博客
帖子互动: 912
帖子: 18997
注册时间: 2022年 7月 23日 23:48

#81 Re: 大语言模型LLM大方向可能不对

帖子 hahan »

da1gaku 写了: 2023年 12月 19日 18:21 有很多工作并不需要100%准确,或者人的准确性也不高
好吧
我曾经丢给一个doc 让chatgpt帮我proofread polish
结果有些句子的意思就变了
这个能用在法律文书吗
头像
huangchong(净坛使者)
论坛元老
论坛元老
2023-24年度优秀版主
帖子互动: 4094
帖子: 60913
注册时间: 2022年 7月 22日 01:22

#82 Re: 大语言模型LLM大方向可能不对

帖子 huangchong(净坛使者) »

netflix 写了: 2023年 12月 19日 14:48 给LLM加上给用户评级的功能,挑选出可靠输入数据并且交叉验证来纠错。这其实正类似于人类现实世界里的纠错功能,人类在现实世界里也同样被海量信息冲击,但是人类可以自我定义一个信息是否可靠的鉴别机制,比如政治自媒体不可靠,多个正规媒体并能交叉验证算可靠,正规学术书刊算可靠,等等。
人类的逻辑 似乎目前的ai还没有模仿出来 比如人可以通过细微的逻辑不自洽 察觉一个体系的问题 就像福尔摩斯或者紫外灾难
da1gaku
论坛元老
论坛元老
帖子互动: 400
帖子: 18971
注册时间: 2022年 7月 23日 23:35

#83 Re: 大语言模型LLM大方向可能不对

帖子 da1gaku »

hahan 写了: 2023年 12月 19日 18:25 好吧
我曾经丢给一个doc 让chatgpt帮我proofread polish
结果有些句子的意思就变了
这个能用在法律文书吗
可能你的prompt可以改进一下。
比如举例说哪些不能改,然后再试。

我们现在都要develop prompt,不可能一次就能用
netflix(nf)
论坛元老
论坛元老
帖子互动: 1092
帖子: 23589
注册时间: 2022年 8月 2日 04:48

#84 Re: 大语言模型LLM大方向可能不对

帖子 netflix(nf) »

da1gaku 写了: 2023年 12月 19日 18:30 可能你的prompt可以改进一下。
比如举例说哪些不能改,然后再试。

我们现在都要develop prompt,不可能一次就能用
网上有好的prompt库吗
hahan
论坛元老
论坛元老
hahan 的博客
帖子互动: 912
帖子: 18997
注册时间: 2022年 7月 23日 23:48

#85 Re: 大语言模型LLM大方向可能不对

帖子 hahan »

da1gaku 写了: 2023年 12月 19日 18:30 可能你的prompt可以改进一下。
比如举例说哪些不能改,然后再试。

我们现在都要develop prompt,不可能一次就能用
那下次呢
你的promp能保证还能work 没
da1gaku
论坛元老
论坛元老
帖子互动: 400
帖子: 18971
注册时间: 2022年 7月 23日 23:35

#86 Re: 大语言模型LLM大方向可能不对

帖子 da1gaku »

netflix 写了: 2023年 12月 19日 18:32 网上有好的prompt库吗
这种需求太多样化,可能没有现成的库,但是有一些经验总结。

比如你告诉模型处理的数据以后是计算机用的,那它就不会擅自跳过一些重复内容,会不厌其烦把需要的都列出来。
还有加上 step by step之类的。
很多都是玄学,试了才知道。

以后也许会发展出一些库。
da1gaku
论坛元老
论坛元老
帖子互动: 400
帖子: 18971
注册时间: 2022年 7月 23日 23:35

#87 Re: 大语言模型LLM大方向可能不对

帖子 da1gaku »

hahan 写了: 2023年 12月 19日 18:35 那下次呢
你的promp能保证还能work 没
如果是同样的任务,一般效果还是比较稳定的。
跟任务有关。
da1gaku
论坛元老
论坛元老
帖子互动: 400
帖子: 18971
注册时间: 2022年 7月 23日 23:35

#88 Re: 大语言模型LLM大方向可能不对

帖子 da1gaku »

现在已经有一些paper讲解怎么develop prompt

比如可以让模型从数据里自己总结一些instruction,自己选例子,然后再放到prompt里面去用
xiaoju(可爱的龙猫)
论坛元老
论坛元老
帖子互动: 1097
帖子: 26390
注册时间: 2023年 9月 5日 20:18

#89 Re: 大语言模型LLM大方向可能不对

帖子 xiaoju(可爱的龙猫) »

貌似ChatGPT的API里没有还没有准确率这个选项吧,比如如何设定不知道就说不知道,千万不要胡说,内容的准确性非常重要请尽一切可能交叉校对这个需求
da1gaku 写了: 2023年 12月 19日 18:21 有很多工作并不需要100%准确,或者人的准确性也不高
rtscts
论坛精英
论坛精英
帖子互动: 864
帖子: 8188
注册时间: 2023年 9月 10日 15:11

#90 Re: 大语言模型LLM大方向可能不对

帖子 rtscts »

da1gaku 写了: 2023年 12月 19日 18:30 可能你的prompt可以改进一下。
比如举例说哪些不能改,然后再试。

我们现在都要develop prompt,不可能一次就能用
主要是这个chatGPT没有办法理解内容,只是机械地计算概率,所以需要人为地校正概率。
回复

回到 “军事天地(Military)”