分页: 4 / 4
#61 Re: 发现这个班上的人有点排斥ai 只说ai的不好
发表于 : 2025年 7月 11日 03:48
由 CutPaste
cover 写了: 2025年 7月 10日 22:58
英国法院警告:律师若引用虚假的 AI 生成内容,可能面临严厉处罚
https://finance.sina.com.cn/tech/digi/2 ... froms=ggmp
英格兰和威尔士高等法院表示,律师需要采取更有力的措施,防止在工作中滥用人工智能技术。在一项将最近两起案件联系起来的裁决中,法官维多利亚・夏普(Victoria Sharp)写道,像 ChatGPT 这样的生成式人工智能工具“无法进行可靠的法律研究”。
夏普法官指出,这些工具虽然能够生成看似连贯且合理的回答,但这些回答可能完全错误。她强调:“这些回答可能会以自信的语气断言一些根本不存在的事实。”然而,这并不意味着律师不能在研究中使用人工智能,但律师有职业义务“在将其应用于专业工作之前,需参考权威资料核查其准确性”。
夏普法官提到,
越来越多的案例显示律师引用了看似由人工智能生成的虚假信息,这表明“需要采取更多措施以确保律师遵循相关指导,并履行对法庭的职责”。她表示,该裁决将被转发给包括律师公会和律师协会在内的专业机构。
IT之家注意到,在其中一起案件中,一名律师代表一名男子向两家银行索赔,并提交了一份附有 45 条引证的文件。夏普法官称,其中 18 起案件并不存在,而其他许多案件“并未包含所引用的内容,无法支持引用它们时所主张的观点,且与该申请的主题毫无关联”。
在另一案件中,一名代表被伦敦住所驱逐的男子的律师在法庭文件中引用了五起不存在的案件。尽管该律师否认使用了人工智能,但承认这些引用可能来自“谷歌或 Safari”上的人工智能生成的摘要。夏普法官表示,尽管法庭决定不启动藐视法庭程序,但这“并不构成先例”。她补充道:“未能履行这一职业义务的律师可能面临严厉的制裁。”
两名律师均被提交至或主动提交至专业监管机构。夏普法官指出,当律师未能履行对法庭的职责时,法庭可采取的措施包括“公开训诫”、责令承担费用、启动藐视法庭诉讼程序,甚至“移送警方”。
其实律师胡扯是常态。这在ChatGPT之前早已是如此。
多数法官也知道。法官基本交给实习的LawClerk去啃。
然后参考LawClerk的建议作修改,由LawClerk写判决。
LawClerk代写的判决,法官会细读,一般会稍加修改。
严重分歧时会令LawClerk依法官的目的和结果去重写。
绝对不能不读就100%的接受AI带写的Memo或Brief。
被抓到用AI代写的律师,不是太懒就是太蠢,或兼是。
因为支持的案例(前例,Precedent,Stare Decisis),
并不需要多,并且AI提供的案例,可以用Digest速查。
然后快速打分,最后选最高分的2到5个。再细查确认。
这一般不须一个小时,甚至不须超过半小时,就完工。
最后从头到尾细读一遍。顺便把貌似AI的笔法修改掉。
.
#62 Re: 发现这个班上的人有点排斥ai 只说ai的不好
发表于 : 2025年 7月 11日 08:11
由 stm32
雄心勃勃的IBM决定利用Watson改造整个西方世界最复杂、资源浪费最大的行业——医疗,而且一上来就聚焦于难度最高的癌症诊疗。2013年,包括德克萨斯大学MD Anderson癌症中心在内的三家大型医疗机构与Watson签约合作;IBM市值的历史最高点,也恰好出现在这一年(比现在高25%)。2015年,Watson Health正式成为了IBM旗下的一个独立部门。与此同时,Watson在教育、交通、工程、政务、天气预报等领域也得到了一定的应用。人们有理由相信,IBM将成为机器学习产业化的最大受益者之一。
然而,IBM Watson此后的历史,给“技术泡沫”这个词做出了最佳注脚。从2018年开始,每年都有大批医疗机构与Watson解约;2019年,IEEE Spectrum发表了一篇文章,详细论述Watson为何不能完成自己的承诺;2021年,IBM终于决定出售Watson Health的大部分资产,由于买家兴趣平平,直到2022年才出售完成。综合看来,Watson的失败完全是可以理解的:
对癌症治疗的建议效果不佳。具体而言,Watson的治疗建议与人类专家建议的一致性较低,导致许多医院拒绝予以采信。当然,人类专家的建议未必就是对的,可是在癌症治疗这种大事上,没有人敢轻易用人工智能否定人类专家。此外,Watson的适用场景有限,只对肺癌等常见癌症有比较高的精度。
无法融入已有的医疗信息和数据系统。在MD Anderson癌症中心,Watson甚至无法接入电子病历系统;在英国,Watson也经常无法读取实际病历。原因一方面在于监管(病人隐私保护),另一方面在于医疗系统的复杂性。让Watson接入所有医院的医疗信息系统(HIS)简直是难于登天!
无法直接代替医生的劳动。Watson Health的设计初衷是减轻医生的工作负担,但由于技术和伦理的双重原因,它无法代替医生发表诊断意见,只能为医生提供参考。结果,在许多医院,Watson沦为昂贵的“年轻医生培训系统”,资深医生的工作量并未得到很大缓解。
说到底,IBM选择医疗作为突破口,本来就错了,因为医疗涉及到太多既得利益,又有太多伦理问题;选择癌症诊疗作为细分市场突破口,更是大错特错,因为医疗机构对于癌症这种重症的治疗手段必然是非常保守的,很难相信人工智能;选择以自然语义提供癌症诊疗建议,更是人为增加难度,妄想一步登天。
#63 Re: 发现这个班上的人有点排斥ai 只说ai的不好
发表于 : 2025年 7月 11日 08:14
由 stm32
IBM的Watson,和现在的AI一样,刷题式学习,只会做常见题
结果就是只对常见癌症有比较高的精度,不常见情况,因为没法刷题,完全和医生判断不一样,医生很不满意
#64 Re: 发现这个班上的人有点排斥ai 只说ai的不好
发表于 : 2025年 7月 11日 11:22
由 Caravel
stm32 写了: 2025年 7月 11日 08:14
IBM的Watson,和现在的AI一样,刷题式学习,只会做常见题
结果就是只对常见癌症有比较高的精度,不常见情况,因为没法刷题,完全和医生判断不一样,医生很不满意
watson比现在AI差远了,那玩意根本不敢拿给普通人用
我的标准很简单
你敢拿出来给人用
有人付钱就是真功夫
#65 Re: 发现这个班上的人有点排斥ai 只说ai的不好
发表于 : 2025年 7月 11日 12:05
由 stm32
Caravel 写了: 2025年 7月 11日 11:22
watson比现在AI差远了,那玩意根本不敢拿给普通人用
我的标准很简单
你敢拿出来给人用
有人付钱就是真功夫
没啥本质不同,AI现在还是刷题
最多就是自然语言处理能力比watson好,这也不是watson的问题