发现这个班上的人有点排斥ai 只说ai的不好

版主: hci

Whyisthis(为什么会这样)
职业作家
职业作家
帖子互动: 41
帖子: 465
注册时间: 2022年 11月 17日 16:22

#41 Re: 发现这个班上的人有点排斥ai 只说ai的不好

帖子 Whyisthis(为什么会这样) »

stm32 写了: 2025年 7月 9日 16:57 AI 能取代什么工作,主要看AI的杀手级应用是什么

AI的杀手级应用,排在第一的就是考试,AI的各种新闻,大部分都是这个考试AI取得几分,那个考试AI取得优秀成绩

AI的杀手级应用,排在第二的是造假。这个不用说了,互联网现在到处是AI的假视频,伪造名人说话,伪造名人裸照什么

AI的杀手级应用,公认非常成功就是上面这两个
错了,ai杀手级的应用,首先是坐台的医生,然后是律师(甚至法官也是100%可以被ai取代),再次才是造假和网络洗脑全自动1450这些。
当然,医生有行会的保护,法官有政治的保护,所以一时半会ai还动不了这两行,不过从道理上说,这两行100%可以被ai代替。

+1.00 积分 [用户 CutPaste 给您的打赏]

标签/Tags:
Whyisthis(为什么会这样)
职业作家
职业作家
帖子互动: 41
帖子: 465
注册时间: 2022年 11月 17日 16:22

#42 Re: 发现这个班上的人有点排斥ai 只说ai的不好

帖子 Whyisthis(为什么会这样) »

magagop 写了: 2025年 7月 9日 15:57 我支持你的觀點,這個版對AI非常有偏見。AI不需要取代全部人類,只要能超過80%人類就可以了。版上總是舉極端個例,看不到80%的人智商堪憂,分分鐘被AI碾壓。還說人會學習舉一反三,我看80%的普通人學習都很差,遠遠不如AI,智商110-120就是分界線,AI只要達到普通人標準,大量失業不可避免。
错。ai能取代的行业和智商没有任何关系。ai替代的金标准是,这个行业是不是知识密集型,换句话说在这个行业工作是不是主要靠死记硬背外加少量发挥。从这个角度来说,坐台的医生和律师非常符合。
马工也需要死记硬背,主要是编程语言的语法和数据结构的算法,这正是ai所擅长的,这就是为什么,对码公来说,ai有时还是有点用。但马工需要创新和用到ai一无所知的专业知识的情况是大多数,所以大多数情况下ai帮不上忙。

+1.00 积分 [用户 CutPaste 给您的打赏]
stm32
著名点评
著名点评
帖子互动: 96
帖子: 4006
注册时间: 2022年 7月 26日 12:34

#43 Re: 发现这个班上的人有点排斥ai 只说ai的不好

帖子 stm32 »

Whyisthis 写了: 2025年 7月 10日 08:59 错了,ai杀手级的应用,首先是坐台的医生,然后是律师(甚至法官也是100%可以被ai取代),再次才是造假和网络洗脑全自动1450这些。
当然,医生有行会的保护,法官有政治的保护,所以一时半会ai还动不了这两行,不过从道理上说,这两行100%可以被ai代替。
完全胡说八道

刷题的AI能取代医生,纯粹是AI炒作 。IBM的华生,号称癌症诊断,在芝加哥癌症医院使用,被医生骂的狗血喷头 !

好的医生律师,需要知道病人各种病情细节,在这个基础上做各种判断,而且病人情况经常变化,每个病人可能都是特殊的

AI看病不过是用一个超大数据库,刷题的结果,和自动驾驶一样,貌似95%病人是符合数据库刷题结果,剩下5%特殊的,是要死人的。

AI搞死5% 的病人,能赔钱吗
Whyisthis(为什么会这样)
职业作家
职业作家
帖子互动: 41
帖子: 465
注册时间: 2022年 11月 17日 16:22

#44 Re: 发现这个班上的人有点排斥ai 只说ai的不好

帖子 Whyisthis(为什么会这样) »

stm32 写了: 2025年 7月 10日 09:11 完全胡说八道

刷题的AI能取代医生,纯粹是AI炒作 。IBM的华生,号称癌症诊断,在芝加哥癌症医院使用,被医生骂的狗血喷头 !

好的医生律师,需要知道病人各种病情细节,在这个基础上做各种判断,而且病人情况经常变化,每个病人可能都是特殊的

AI看病不过是用一个超大数据库,刷题的结果,和自动驾驶一样,貌似95%病人是符合数据库刷题结果,剩下5%特殊的,是要死人的。

AI搞死5% 的病人,能赔钱吗
人类庸医已经搞死了至少5%的病人,赔了多少钱?
stm32
著名点评
著名点评
帖子互动: 96
帖子: 4006
注册时间: 2022年 7月 26日 12:34

#45 Re: 发现这个班上的人有点排斥ai 只说ai的不好

帖子 stm32 »

Whyisthis 写了: 2025年 7月 10日 09:16 人类庸医已经搞死了至少5%的病人,赔了多少钱?
医疗事故就是要赔钱的

庸医虽然存在,但是正常医生都知道如何处理特殊情况

AI刷题,对于特殊情况,只会说,用大量特殊情况再训练一下,人已经死了

我找到的杀手应用,都是不会死人的

考试不会死人,考试做错一特殊题,可能95分,还是优秀成绩

造假也不会死人,特殊情况就是有不上当的,怎么会死人
头像
omicron
论坛点评
论坛点评
帖子互动: 90
帖子: 3168
注册时间: 2022年 7月 26日 16:25

#46 Re: 发现这个班上的人有点排斥ai 只说ai的不好

帖子 omicron »

AI做不了mission critical的任务,因为AI的基础是刷题,处理不了特殊case

AI可以做公司小秘,不知道AI会色诱吗?

不会色诱,小秘也做不了
头像
cover
著名点评
著名点评
帖子互动: 133
帖子: 3522
注册时间: 2023年 5月 9日 09:53

#47 Re: 发现这个班上的人有点排斥ai 只说ai的不好

帖子 cover »

生成式AI靠刷题是没戏的

人脑刷题,可以通过训练常见问题,发展出解决特殊问题的能力,这是人脑的特点

生成式AI没这个能力,特殊问题还得刷题,现实世界千变万化,特殊问题无穷无尽

生成式AI肯定是没戏的,不能自主解决特殊问题,没法替代大部分工作
头像
cover
著名点评
著名点评
帖子互动: 133
帖子: 3522
注册时间: 2023年 5月 9日 09:53

#48 Re: 发现这个班上的人有点排斥ai 只说ai的不好

帖子 cover »

这里的人智商不行,AI这么简单问题看不到,被人忽悠还信以为真

就像人脑背后机制是灵魂,智商不行的人肯定也不信
magagop
见习点评
见习点评
帖子互动: 111
帖子: 1603
注册时间: 2024年 12月 5日 17:35

#49 Re: 发现这个班上的人有点排斥ai 只说ai的不好

帖子 magagop »

Whyisthis 写了: 2025年 7月 10日 09:09 错。ai能取代的行业和智商没有任何关系。ai替代的金标准是,这个行业是不是知识密集型,换句话说在这个行业工作是不是主要靠死记硬背外加少量发挥。从这个角度来说,坐台的医生和律师非常符合。
马工也需要死记硬背,主要是编程语言的语法和数据结构的算法,这正是ai所擅长的,这就是为什么,对码公来说,ai有时还是有点用。但马工需要创新和用到ai一无所知的专业知识的情况是大多数,所以大多数情况下ai帮不上忙。
不明白你在說什麼,AI取代智商普通且高度重複,不需要執照的工作,初級程序猿非常符合。醫生律師需要執照,一時半會兒AI無法取代。
头像
omicron
论坛点评
论坛点评
帖子互动: 90
帖子: 3168
注册时间: 2022年 7月 26日 16:25

#50 Re: 发现这个班上的人有点排斥ai 只说ai的不好

帖子 omicron »

AI能替代弯弯的诈骗工作,AI造假搞诈骗肯定是利器。

AI还能替代各种考试,AI成绩超过大部分考生,不过这个除了作弊,不知道还有其他什么用?

Ai没法替代低智商从事的劳动密集型工作,不能扫地,也不能烧菜,也做不了警察

AI也没法替代初级程序员,因为AI不会修bug,也不会理解用户需求,有程序员不需要修bug的吗?
stm32
著名点评
著名点评
帖子互动: 96
帖子: 4006
注册时间: 2022年 7月 26日 12:34

#51 Re: 发现这个班上的人有点排斥ai 只说ai的不好

帖子 stm32 »

人脑很厉害的

训练常见问题,发展出特殊问题解决能力,只有人脑会做

电脑AI根本不知道如何实现这个,做不出这个,生成AI和以前一样,就是又一波AI泡沫
stm32
著名点评
著名点评
帖子互动: 96
帖子: 4006
注册时间: 2022年 7月 26日 12:34

#52 Re: 发现这个班上的人有点排斥ai 只说ai的不好

帖子 stm32 »

训练常见问题,发展出特殊问题解决能力,就是举一反三,人脑基本功能

成语【举一反三」形容人于学习中善于触类旁通

只要不是天生痴呆,不是得了老年痴呆,智商80的都知道举一反三

电脑没有举一反三的能力,如何取代低智商人口?
magagop
见习点评
见习点评
帖子互动: 111
帖子: 1603
注册时间: 2024年 12月 5日 17:35

#53 Re: 发现这个班上的人有点排斥ai 只说ai的不好

帖子 magagop »

stm32 写了: 2025年 7月 10日 15:45 训练常见问题,发展出特殊问题解决能力,就是举一反三,人脑基本功能

成语【举一反三」形容人于学习中善于触类旁通

只要不是天生痴呆,不是得了老年痴呆,智商80的都知道举一反三

电脑没有举一反三的能力,如何取代低智商人口?
CoT不就是舉一反三?
stm32
著名点评
著名点评
帖子互动: 96
帖子: 4006
注册时间: 2022年 7月 26日 12:34

#54 Re: 发现这个班上的人有点排斥ai 只说ai的不好

帖子 stm32 »

magagop 写了: 2025年 7月 10日 20:22 CoT不就是舉一反三?
根本不是,就是把一个问题分成几个子问题

就像考试一个比较难的数学题,通常会分成几个子问题,每个问题都有分数,最后答案是所有问题回答合起来

人脑的举一反三根本不是这个
Havana
论坛元老
论坛元老
帖子互动: 752
帖子: 21104
注册时间: 2022年 8月 16日 21:53

#55 Re: 发现这个班上的人有点排斥ai 只说ai的不好

帖子 Havana »

我当时还真玩过这个
cover 写了: 2025年 7月 9日 17:36 图片


微软的encyclopedia因为用户交互不好,在谷歌搜索引擎兴起之后,2009年停止更新了

ChatGPT就是改进用户交互的encyclopedia
Havana
论坛元老
论坛元老
帖子互动: 752
帖子: 21104
注册时间: 2022年 8月 16日 21:53

#56 Re: 发现这个班上的人有点排斥ai 只说ai的不好

帖子 Havana »

已经有好几个律师用AI给自己惹麻烦了。
Whyisthis 写了: 2025年 7月 10日 09:09 错。ai能取代的行业和智商没有任何关系。ai替代的金标准是,这个行业是不是知识密集型,换句话说在这个行业工作是不是主要靠死记硬背外加少量发挥。从这个角度来说,坐台的医生和律师非常符合。
马工也需要死记硬背,主要是编程语言的语法和数据结构的算法,这正是ai所擅长的,这就是为什么,对码公来说,ai有时还是有点用。但马工需要创新和用到ai一无所知的专业知识的情况是大多数,所以大多数情况下ai帮不上忙。
头像
cover
著名点评
著名点评
帖子互动: 133
帖子: 3522
注册时间: 2023年 5月 9日 09:53

#57 Re: 发现这个班上的人有点排斥ai 只说ai的不好

帖子 cover »

英国法院警告:律师若引用虚假的 AI 生成内容,可能面临严厉处罚

https://finance.sina.com.cn/tech/digi/2 ... froms=ggmp

英格兰和威尔士高等法院表示,律师需要采取更有力的措施,防止在工作中滥用人工智能技术。在一项将最近两起案件联系起来的裁决中,法官维多利亚・夏普(Victoria Sharp)写道,像 ChatGPT 这样的生成式人工智能工具“无法进行可靠的法律研究”。


夏普法官指出,这些工具虽然能够生成看似连贯且合理的回答,但这些回答可能完全错误。她强调:“这些回答可能会以自信的语气断言一些根本不存在的事实。”然而,这并不意味着律师不能在研究中使用人工智能,但律师有职业义务“在将其应用于专业工作之前,需参考权威资料核查其准确性”。

夏普法官提到,越来越多的案例显示律师引用了看似由人工智能生成的虚假信息,这表明“需要采取更多措施以确保律师遵循相关指导,并履行对法庭的职责”。她表示,该裁决将被转发给包括律师公会和律师协会在内的专业机构。

IT之家注意到,在其中一起案件中,一名律师代表一名男子向两家银行索赔,并提交了一份附有 45 条引证的文件。夏普法官称,其中 18 起案件并不存在,而其他许多案件“并未包含所引用的内容,无法支持引用它们时所主张的观点,且与该申请的主题毫无关联”。

在另一案件中,一名代表被伦敦住所驱逐的男子的律师在法庭文件中引用了五起不存在的案件。尽管该律师否认使用了人工智能,但承认这些引用可能来自“谷歌或 Safari”上的人工智能生成的摘要。夏普法官表示,尽管法庭决定不启动藐视法庭程序,但这“并不构成先例”。她补充道:“未能履行这一职业义务的律师可能面临严厉的制裁。”

两名律师均被提交至或主动提交至专业监管机构。夏普法官指出,当律师未能履行对法庭的职责时,法庭可采取的措施包括“公开训诫”、责令承担费用、启动藐视法庭诉讼程序,甚至“移送警方”。
头像
cover
著名点评
著名点评
帖子互动: 133
帖子: 3522
注册时间: 2023年 5月 9日 09:53

#58 Re: 发现这个班上的人有点排斥ai 只说ai的不好

帖子 cover »

ChatGPT天生适合搞诈骗

真的掺杂假的,还理直气壮,完全是诈骗天才
CutPaste(剪贴转贴分享)
论坛点评
论坛点评
帖子互动: 73
帖子: 2621
注册时间: 2022年 8月 1日 13:18

#59 Re: 发现这个班上的人有点排斥ai 只说ai的不好

帖子 CutPaste(剪贴转贴分享) »

stm32 写了: 2025年 7月 10日 09:11 完全胡说八道

刷题的AI能取代医生,纯粹是AI炒作 。IBM的华生,号称癌症诊断,在芝加哥癌症医院使用,被医生骂的狗血喷头 !

好的医生律师,需要知道病人各种病情细节,在这个基础上做各种判断,而且病人情况经常变化,每个病人可能都是特殊的

AI看病不过是用一个超大数据库,刷题的结果,和自动驾驶一样,貌似95%病人是符合数据库刷题结果,剩下5%特殊的,是要死人的。

AI搞死5% 的病人,能赔钱吗

2015年,IBM发布了的沃森(Watson for Health),旨在协助医疗诊断和治疗建议。它因能够分析大量医疗数据(包括患者记录、临床研究和医学文献)而引起关注,从而提供见解和建议。

在各种研究和试验中,沃森在某些疾病的诊断准确性上表现出比普通医生更高的水平。例如,在肿瘤学领域,沃森能够建议与专家肿瘤医生的推荐相一致的治疗方案,且这一比例相当可观。

IBM 说,沃森的主要角色是作为决策支持工具,协助医疗专业人员,而不是取代他们 (IBM 知道必须尽量减少医生的敌意和排斥)。即使如此,还是被医疗业视为致命威胁,被医生攻击和抹黑。

医院医生西药厂造成的死亡率何止5%,但实际等于不用赔。例如加州,病人死了,即使是医生或医院谋杀,最高赔偿是法定25万米元。告医生医院过程非常昂贵。扣除各种专家费用,所剩无几,基本确保没律师愿意认真为受害病人主持正义。所以医生医院可以为所欲为胡来,包括在医疗的幌子下搞恶意急性慢性谋杀,而无须畏惧后果。

------

以下是米国CDC(Center for Disease Control)的统计数据。实际百分比应远高于下面的数据,因为医生医院往往尽量掩盖对病人的伤害,该报不报,把意外死亡说为自然死亡:

以下是关于米国医源性,Iatrogenic,伤害(由医疗治疗或诊断程序引起的伤害)和医院获得性, Nosocomial, 伤害(医院内感染)的CDC统计数据:

医源性伤害:
估计医源性伤害发生在大约 10% 到 20% 的住院患者中。一些研究表明,这一数字在特定人群或特定类型的程序中可能更高。

医院获得性伤害
医院获得性感染(也称为医疗相关感染)影响大约 5% 到 10% 的住院患者。美国疾病控制与预防中心(CDC)报告称,在任何给定的日子里,大约 31% 的住院患者 至少有一种医疗相关感染。

未来病人被伤害的统计数据只会更糟糕,因为大量低能不合格的医生在AA (AffirmativeAction) 的保送下入学和毕业。讽刺的是,越低能的医生使病人须多次看病,久病不愈,医生和医院收入反而更高数倍。病人看一次病就痊愈的能干医生反而不利优化暴利,并不受医院欢迎,除非他赶紧学会同流合污,故意增加病人住院和看病次数,以及给病人各种昂贵检测和医疗手续。

https://tinyurl.com/MedVid1


.



.
CutPaste(剪贴转贴分享)
论坛点评
论坛点评
帖子互动: 73
帖子: 2621
注册时间: 2022年 8月 1日 13:18

#60 Re: 发现这个班上的人有点排斥ai 只说ai的不好

帖子 CutPaste(剪贴转贴分享) »

magagop 写了: 2025年 7月 10日 14:03 不明白你在說什麼,AI取代智商普通且高度重複,不需要執照的工作,初級程序猿非常符合。醫生律師需要執照,一時半會兒AI無法取代。

有否執照,与AI是否能替代无关。

开车要執照,灭白蚁服务也需要。

做医生律师须要執照是为了垄断。

没執照的高级码工头脑其实更强。


.
回复

回到 “葵花宝典(Programming)”