GLM+Claude完胜CodeX

版主: hci

头像
hci(海螺子)楼主
论坛支柱
论坛支柱
帖子互动: 519
帖子: 10365
注册时间: 2022年 7月 22日 15:29

#1 GLM+Claude完胜CodeX

帖子 hci(海螺子)楼主 »

用Codex太贵了,Vide coding一个星期就花了400美刀,还搞不定稍微比较复杂的问题,关键还慢得要死。

现在换成中国公司z.ai的开源模型GLM4.6,用在Claude Code里面,速度快太多了,爽。还便宜,一个季度随便用也就180美刀。

Codex完全没法比。

美帝AI完蛋了,泡泡绝对爆。

x1 图片 x1 图片

标签/Tags:
jkxf
见习点评
见习点评
帖子互动: 117
帖子: 1310
注册时间: 2025年 2月 9日 09:04

#2 Re: GLM+Claude完胜CodeX

帖子 jkxf »

hci 写了: 2025年 10月 15日 17:43

用Codex太贵了,Vide coding一个星期就花了400美刀,还搞不定稍微比较复杂的问题,关键还慢得要死。

现在换成中国公司z.ai的开源模型GLM4.6,用在Claude Code里面,速度快太多了,爽。还便宜,一个季度随便用也就180美刀。

Codex完全没法比。

美帝AI完蛋了,泡泡绝对爆。

cursor 如何?

艰难之际,右派冷漠,左派只会嘴炮反川,莫信所谓爱心
But if not, keep your soul beautiful.
Collect moments, not things.

goodegg(我是大陆人)
知名作家
知名作家
帖子互动: 195
帖子: 921
注册时间: 2023年 7月 23日 03:31

#3 Re: GLM+Claude完胜CodeX

帖子 goodegg(我是大陆人) »

这个确实不错

hci 写了: 2025年 10月 15日 17:43

用Codex太贵了,Vide coding一个星期就花了400美刀,还搞不定稍微比较复杂的问题,关键还慢得要死。

现在换成中国公司z.ai的开源模型GLM4.6,用在Claude Code里面,速度快太多了,爽。还便宜,一个季度随便用也就180美刀。

Codex完全没法比。

美帝AI完蛋了,泡泡绝对爆。

头像
hci(海螺子)楼主
论坛支柱
论坛支柱
帖子互动: 519
帖子: 10365
注册时间: 2022年 7月 22日 15:29

#4 Re: GLM+Claude完胜CodeX

帖子 hci(海螺子)楼主 »

据说早就被Claude打败了,我就没试。

jkxf 写了: 2025年 10月 15日 19:39

cursor 如何?

longtian
见习点评
见习点评
帖子互动: 104
帖子: 1376
注册时间: 2023年 5月 12日 16:15

#5 Re: GLM+Claude完胜CodeX

帖子 longtian »

这个多少参数?多大?

hci 写了: 2025年 10月 15日 17:43

用Codex太贵了,Vide coding一个星期就花了400美刀,还搞不定稍微比较复杂的问题,关键还慢得要死。

现在换成中国公司z.ai的开源模型GLM4.6,用在Claude Code里面,速度快太多了,爽。还便宜,一个季度随便用也就180美刀。

Codex完全没法比。

美帝AI完蛋了,泡泡绝对爆。

头像
hci(海螺子)楼主
论坛支柱
论坛支柱
帖子互动: 519
帖子: 10365
注册时间: 2022年 7月 22日 15:29

#6 Re: GLM+Claude完胜CodeX

帖子 hci(海螺子)楼主 »

As a Mixture-of-Experts (MoE) model, the GLM-4.6 model has a total of 355 billion parameters, with 32 billion parameters activated for each inference, or forward pass.

longtian 写了: 2025年 10月 15日 20:17

这个多少参数?多大?

pnlmpnlm(pnlm)
见习作家
见习作家
帖子互动: 78
帖子: 441
注册时间: 2025年 2月 12日 03:13

#7 Re: GLM+Claude完胜CodeX

帖子 pnlmpnlm(pnlm) »

hci 写了: 2025年 10月 15日 17:43

用Codex太贵了,Vide coding一个星期就花了400美刀,还搞不定稍微比较复杂的问题,关键还慢得要死。

现在换成中国公司z.ai的开源模型GLM4.6,用在Claude Code里面,速度快太多了,爽。还便宜,一个季度随便用也就180美刀。

Codex完全没法比。

美帝AI完蛋了,泡泡绝对爆。

Claude一个月100到的max plan就足够了吧。你非要用api干嘛

头像
mmking(上水)
论坛支柱
论坛支柱
帖子互动: 1719
帖子: 12681
注册时间: 2023年 1月 25日 05:10

#8 Re: GLM+Claude完胜CodeX

帖子 mmking(上水) »

凡是中帝可以做的事儿,都不会有溢价,泡泡爆掉确实是迟早的事儿

hci 写了: 2025年 10月 15日 17:43

用Codex太贵了,Vide coding一个星期就花了400美刀,还搞不定稍微比较复杂的问题,关键还慢得要死。

现在换成中国公司z.ai的开源模型GLM4.6,用在Claude Code里面,速度快太多了,爽。还便宜,一个季度随便用也就180美刀。

Codex完全没法比。

美帝AI完蛋了,泡泡绝对爆。

又开赌盘了,看看川宝会不会反对台湾独立:viewtopic.php?t=880584

凡所有相,皆是虚妄

viewtopic.php?t=864957

图片

头像
hci(海螺子)楼主
论坛支柱
论坛支柱
帖子互动: 519
帖子: 10365
注册时间: 2022年 7月 22日 15:29

#9 Re: GLM+Claude完胜CodeX

帖子 hci(海螺子)楼主 »

它是有limit的,肯定超支。API没有limit,随便用。vibe coding用的token数量大得惊人。

pnlmpnlm 写了: 2025年 10月 15日 21:09

Claude一个月100到的max plan就足够了吧。你非要用api干嘛

上次由 hci 在 2025年 10月 15日 21:44 修改。
原因: 未提供修改原因
pnlmpnlm(pnlm)
见习作家
见习作家
帖子互动: 78
帖子: 441
注册时间: 2025年 2月 12日 03:13

#10 Re: GLM+Claude完胜CodeX

帖子 pnlmpnlm(pnlm) »

hci 写了: 2025年 10月 15日 21:43

它是有limit的,肯定超支。API没有limit,随便用。vibe coding用的token数量大得惊人。

这个我知道。我自己以前用Claude的api很快烧掉了400美元。后来让公司给我各种都买了,但是其实最后还是都用claude code,max对我反正是够用了,你结合好serena之类的mcp能减少token的使用。分析项目之类的没有必要用cc,免费的各种都能帮忙分析,然后编写的时候订好specs用cc就行。如果要改写大量以前的legacy代码的话那是不同。

头像
hci(海螺子)楼主
论坛支柱
论坛支柱
帖子互动: 519
帖子: 10365
注册时间: 2022年 7月 22日 15:29

#11 Re: GLM+Claude完胜CodeX

帖子 hci(海螺子)楼主 »

我搞的就是大项目改写。现实工作中,大部分人干的,也是大项目改写。

pnlmpnlm 写了: 2025年 10月 15日 22:15

这个我知道。我自己以前用Claude的api很快烧掉了400美元。后来让公司给我各种都买了,但是其实最后还是都用claude code,max对我反正是够用了,你结合好serena之类的mcp能减少token的使用。分析项目之类的没有必要用cc,免费的各种都能帮忙分析,然后编写的时候订好specs用cc就行。如果要改写大量以前的legacy代码的话那是不同。

上次由 hci 在 2025年 10月 15日 22:45 修改。
原因: 未提供修改原因
longtian
见习点评
见习点评
帖子互动: 104
帖子: 1376
注册时间: 2023年 5月 12日 16:15

#12 Re: GLM+Claude完胜CodeX

帖子 longtian »

你这种use case能不能花个2-3k自己搞个机器自己装个开源的模型,以后就完全不用担心费用问题

hci 写了: 2025年 10月 15日 22:44

我搞的就是大项目改写。现实工作中,大部分人干的,也是大项目改写。

pnlmpnlm(pnlm)
见习作家
见习作家
帖子互动: 78
帖子: 441
注册时间: 2025年 2月 12日 03:13

#13 Re: GLM+Claude完胜CodeX

帖子 pnlmpnlm(pnlm) »

hci 写了: 2025年 10月 15日 22:44

我搞的就是大项目改写。现实工作中,大部分人干的,也是大项目改写。

我只知道认识几个apple和meta搞infra的人,都使用claude,他们前几天还被claude邀请去因为用量非常大,回来后apple的那个和我说,以后争取不用写一行damn code了。当然是开玩笑,但是我估计可能看到一些能力更强的东西。

头像
hci(海螺子)楼主
论坛支柱
论坛支柱
帖子互动: 519
帖子: 10365
注册时间: 2022年 7月 22日 15:29

#14 Re: GLM+Claude完胜CodeX

帖子 hci(海螺子)楼主 »

目前开源模型还是不如最好的闭源模型。写码找虫的能力,gml4.6比gpt5还是有较大差距。所以不能用来干复杂的事。

当然了,复杂逻辑gpt5也不行。难度过了一个坎之后,最好的AI也不行,因为它并不会真正的推理。

本质上,AI目前还不能取代人写码。

longtian 写了: 2025年 10月 16日 00:48

你这种use case能不能花个2-3k自己搞个机器自己装个开源的模型,以后就完全不用担心费用问题

anesthetic
知名作家
知名作家
帖子互动: 98
帖子: 1057
注册时间: 2022年 8月 30日 01:02

#15 Re: GLM+Claude完胜CodeX

帖子 anesthetic »

hci 写了: 2025年 10月 16日 12:53

目前开源模型还是不如最好的闭源模型。写码找虫的能力,gml4.6比gpt5还是有较大差距。所以不能用来干复杂的事。

当然了,复杂逻辑gpt5也不行。难度过了一个坎之后,最好的AI也不行,因为它并不会真正的推理。

本质上,AI目前还不能取代人写码。

我在512gb + 2 x 24gb 4090跑的qwen coder 3 480b, 大概12-15tokens,结果跟codex/Claude差不多。反正自己机器,24x7跑debug。很多国内中小公司现在都这样跑。

x1 图片
头像
hci(海螺子)楼主
论坛支柱
论坛支柱
帖子互动: 519
帖子: 10365
注册时间: 2022年 7月 22日 15:29

#16 Re: GLM+Claude完胜CodeX

帖子 hci(海螺子)楼主 »

你自己攒的机子么?用什么主板?电源?水冷?花了多少钱?

anesthetic 写了: 2025年 10月 16日 16:19

我在512gb + 2 x 24gb 4090跑的qwen coder 3 480b, 大概12-15tokens,结果跟codex/Claude差不多。反正自己机器,24x7跑debug。很多国内中小公司现在都这样跑。

上次由 hci 在 2025年 10月 16日 16:57 修改。
原因: 未提供修改原因
fantasist
见习点评
见习点评
帖子互动: 237
帖子: 1759
注册时间: 2022年 7月 24日 19:52

#17 Re: GLM+Claude完胜CodeX

帖子 fantasist »

anesthetic 写了: 2025年 10月 16日 16:19

我在512gb + 2 x 24gb 4090跑的qwen coder 3 480b, 大概12-15tokens,结果跟codex/Claude差不多。反正自己机器,24x7跑debug。很多国内中小公司现在都这样跑。

这硬件配置quantize得惨不忍睹,能用?

anesthetic
知名作家
知名作家
帖子互动: 98
帖子: 1057
注册时间: 2022年 8月 30日 01:02

#18 Re: GLM+Claude完胜CodeX

帖子 anesthetic »

hci 写了: 2025年 10月 16日 16:56

你自己攒的机子么?用什么主板?电源?水冷?花了多少钱?

intel w3400 + x13swa
, 1200w PSU, 卡国内改的,cpu+mb用的开发版,一共差不多5k.

anesthetic
知名作家
知名作家
帖子互动: 98
帖子: 1057
注册时间: 2022年 8月 30日 01:02

#19 Re: GLM+Claude完胜CodeX

帖子 anesthetic »

现在所有model改现成的code其实都不太行,最好就是start from scratch. 接个project,把spec写好,扔给model,使劲跑,一周基本都搞定了。

头像
mrmaja(Tacoma)
见习点评
见习点评
帖子互动: 173
帖子: 1412
注册时间: 2022年 7月 30日 12:25

#20 Re: GLM+Claude完胜CodeX

帖子 mrmaja(Tacoma) »

anesthetic 写了: 2025年 10月 16日 16:19

我在512gb + 2 x 24gb 4090跑的qwen coder 3 480b, 大概12-15tokens,结果跟codex/Claude差不多。反正自己机器,24x7跑debug。很多国内中小公司现在都这样跑。

两张4090 就能跑480B模型,难以置信,
12-15 tokens用起来很难受吧?

回复

回到 “葵花宝典(Programming)”