对应老买买提的军事天地,观点交锋比较激烈,反驳不留情面,请作好心理准备。因为此版帖子太多,所以新帖不出现在首页新帖列表,防止首页新帖刷屏太快。
版主: Softfist
-
FGH
- 论坛精英

- 帖子互动: 106
- 帖子: 7046
- 注册时间: 2022年 7月 25日 16:30
帖子
由 FGH »
最容易取代的是翻译工作。
-
xiaoju(可爱的龙猫)
- 论坛元老

- 帖子互动: 1097
- 帖子: 26388
- 注册时间: 2023年 9月 5日 20:18
帖子
由 xiaoju(可爱的龙猫) »
LLM是问一句说一大段废话,知乎文体。
Caravel 写了: 2023年 12月 19日 14:14
大语言模型到底是语言的model,还是智能的model,我怀疑是前者。
真正的人工智能,需要的input很少,一个小孩学到大学,读的书,跟人说的话,可能不到现在LLM训练材料的万分之一。人工智能的体现在于输入很少,输出很多,LLM是输入很多,输出很多。
-
xiaoju(可爱的龙猫)
- 论坛元老

- 帖子互动: 1097
- 帖子: 26388
- 注册时间: 2023年 9月 5日 20:18
帖子
由 xiaoju(可爱的龙猫) »
文科生也没那么便宜,现在连训练数据都互相剽窃没人做,谷歌刚被人爆料抄了百度的。
hahan 写了: 2023年 12月 19日 17:36
搞笑
几个文科生才多少钱
都不够fine tune 的电费
如果只能搞出这种incremental 的应用
那的确没前途
-
da1gaku
- 论坛元老

- 帖子互动: 400
- 帖子: 18965
- 注册时间: 2022年 7月 23日 23:35
帖子
由 da1gaku »
xiaoju 写了: 2023年 12月 19日 17:48
LLM是问一句说一大段废话,知乎文体。
这取决于你问什么问题。
我们现在用GPT来生成一些JSON文档,基本没有多余信息。
当然API比免费ChatGPT可选参数要多一些
-
xiaoju(可爱的龙猫)
- 论坛元老

- 帖子互动: 1097
- 帖子: 26388
- 注册时间: 2023年 9月 5日 20:18
帖子
由 xiaoju(可爱的龙猫) »
你那个问题太简单了
比如我问个国际民法的比较问题,它就极尽可能的扯淡,回避具体事实。
da1gaku 写了: 2023年 12月 19日 17:51
这取决于你问什么问题。
我们现在用GPT来生成一些JSON文档,基本没有多余信息。
当然API比免费ChatGPT可选参数要多一些
-
da1gaku
- 论坛元老

- 帖子互动: 400
- 帖子: 18965
- 注册时间: 2022年 7月 23日 23:35
帖子
由 da1gaku »
xiaoju 写了: 2023年 12月 19日 17:54
你那个问题太简单了
比如我问个国际民法的比较问题,它就极尽可能的扯淡,回避具体事实。
我们的问题并不简单,都是一些数据分析。只是针对性相对强一些,不是你说的那种开放性问题。
你让ChatGPT帮你总结一大段话,或者解释一大段法律条文,一般效果都不错。
-
xiaoju(可爱的龙猫)
- 论坛元老

- 帖子互动: 1097
- 帖子: 26388
- 注册时间: 2023年 9月 5日 20:18
帖子
由 xiaoju(可爱的龙猫) »
不是开放性问题,我问的就是简单的总结后比较,法律学生查条文的体力活。
我感觉ChatGPT过分依赖内在记忆了,实际上人类都是靠记忆写个大概,然后现查资料核实。
da1gaku 写了: 2023年 12月 19日 17:55
我们的问题并不简单,都是一些数据分析。只是针对性相对强一些,不是你说的那种开放性问题。
你让ChatGPT帮你总结一大段话,或者解释一大段法律条文,一般效果都不错。
-
Caravel楼主
- 论坛元老

Caravel 的博客
- 帖子互动: 686
- 帖子: 27177
- 注册时间: 2022年 7月 24日 17:21
帖子
由 Caravel楼主 »
xiaoju 写了: 2023年 12月 19日 17:48
LLM是问一句说一大段废话,知乎文体。
这个比喻不错,LLM可以很好替代那种百家号,白家号比如新智元之类的经常需要写很长一段机器学习的论文介绍,一般就是小编货轮吞枣看一下paper,写一下似是而非的,反正大家就是去看个热闹。
-
Caravel楼主
- 论坛元老

Caravel 的博客
- 帖子互动: 686
- 帖子: 27177
- 注册时间: 2022年 7月 24日 17:21
帖子
由 Caravel楼主 »
da1gaku 写了: 2023年 12月 19日 17:55
我们的问题并不简单,都是一些数据分析。只是针对性相对强一些,不是你说的那种开放性问题。
你让ChatGPT帮你总结一大段话,或者解释一大段法律条文,一般效果都不错。
只要有百分之一的错误率就不能serious用,和自动驾驶一样
只有差个广告,写个新闻摘要非关键性任务可以用
-
da1gaku
- 论坛元老

- 帖子互动: 400
- 帖子: 18965
- 注册时间: 2022年 7月 23日 23:35
帖子
由 da1gaku »
Caravel 写了: 2023年 12月 19日 18:20
只要有百分之一的错误率就不能serious用,和自动驾驶一样
有很多工作并不需要100%准确,或者人的准确性也不高
-
hahan
- 论坛元老

hahan 的博客
- 帖子互动: 909
- 帖子: 18994
- 注册时间: 2022年 7月 23日 23:48
帖子
由 hahan »
da1gaku 写了: 2023年 12月 19日 18:21
有很多工作并不需要100%准确,或者人的准确性也不高
好吧
我曾经丢给一个doc 让chatgpt帮我proofread polish
结果有些句子的意思就变了
这个能用在法律文书吗
-
huangchong(净坛使者)
- 论坛元老

2023-24年度优秀版主
- 帖子互动: 4093
- 帖子: 60909
- 注册时间: 2022年 7月 22日 01:22
帖子
由 huangchong(净坛使者) »
netflix 写了: 2023年 12月 19日 14:48
给LLM加上给用户评级的功能,挑选出可靠输入数据并且交叉验证来纠错。这其实正类似于人类现实世界里的纠错功能,人类在现实世界里也同样被海量信息冲击,但是人类可以自我定义一个信息是否可靠的鉴别机制,比如政治自媒体不可靠,多个正规媒体并能交叉验证算可靠,正规学术书刊算可靠,等等。
人类的逻辑 似乎目前的ai还没有模仿出来 比如人可以通过细微的逻辑不自洽 察觉一个体系的问题 就像福尔摩斯或者紫外灾难
-
da1gaku
- 论坛元老

- 帖子互动: 400
- 帖子: 18965
- 注册时间: 2022年 7月 23日 23:35
帖子
由 da1gaku »
hahan 写了: 2023年 12月 19日 18:25
好吧
我曾经丢给一个doc 让chatgpt帮我proofread polish
结果有些句子的意思就变了
这个能用在法律文书吗
可能你的prompt可以改进一下。
比如举例说哪些不能改,然后再试。
我们现在都要develop prompt,不可能一次就能用
-
netflix(nf)
- 论坛元老

- 帖子互动: 1092
- 帖子: 23589
- 注册时间: 2022年 8月 2日 04:48
帖子
由 netflix(nf) »
da1gaku 写了: 2023年 12月 19日 18:30
可能你的prompt可以改进一下。
比如举例说哪些不能改,然后再试。
我们现在都要develop prompt,不可能一次就能用
网上有好的prompt库吗
-
hahan
- 论坛元老

hahan 的博客
- 帖子互动: 909
- 帖子: 18994
- 注册时间: 2022年 7月 23日 23:48
帖子
由 hahan »
da1gaku 写了: 2023年 12月 19日 18:30
可能你的prompt可以改进一下。
比如举例说哪些不能改,然后再试。
我们现在都要develop prompt,不可能一次就能用
那下次呢
你的promp能保证还能work 没
-
da1gaku
- 论坛元老

- 帖子互动: 400
- 帖子: 18965
- 注册时间: 2022年 7月 23日 23:35
帖子
由 da1gaku »
netflix 写了: 2023年 12月 19日 18:32
网上有好的prompt库吗
这种需求太多样化,可能没有现成的库,但是有一些经验总结。
比如你告诉模型处理的数据以后是计算机用的,那它就不会擅自跳过一些重复内容,会不厌其烦把需要的都列出来。
还有加上 step by step之类的。
很多都是玄学,试了才知道。
以后也许会发展出一些库。
-
da1gaku
- 论坛元老

- 帖子互动: 400
- 帖子: 18965
- 注册时间: 2022年 7月 23日 23:35
帖子
由 da1gaku »
hahan 写了: 2023年 12月 19日 18:35
那下次呢
你的promp能保证还能work 没
如果是同样的任务,一般效果还是比较稳定的。
跟任务有关。
-
da1gaku
- 论坛元老

- 帖子互动: 400
- 帖子: 18965
- 注册时间: 2022年 7月 23日 23:35
帖子
由 da1gaku »
现在已经有一些paper讲解怎么develop prompt
比如可以让模型从数据里自己总结一些instruction,自己选例子,然后再放到prompt里面去用
-
xiaoju(可爱的龙猫)
- 论坛元老

- 帖子互动: 1097
- 帖子: 26388
- 注册时间: 2023年 9月 5日 20:18
帖子
由 xiaoju(可爱的龙猫) »
貌似ChatGPT的API里没有还没有准确率这个选项吧,比如如何设定不知道就说不知道,千万不要胡说,内容的准确性非常重要请尽一切可能交叉校对这个需求
da1gaku 写了: 2023年 12月 19日 18:21
有很多工作并不需要100%准确,或者人的准确性也不高
-
rtscts
- 论坛精英

- 帖子互动: 864
- 帖子: 8188
- 注册时间: 2023年 9月 10日 15:11
帖子
由 rtscts »
da1gaku 写了: 2023年 12月 19日 18:30
可能你的prompt可以改进一下。
比如举例说哪些不能改,然后再试。
我们现在都要develop prompt,不可能一次就能用
主要是这个chatGPT没有办法理解内容,只是机械地计算概率,所以需要人为地校正概率。