分页: 1 / 2

#1 GLM+Claude完胜CodeX

发表于 : 2025年 10月 15日 17:43
hci

用Codex太贵了,Vide coding一个星期就花了400美刀,还搞不定稍微比较复杂的问题,关键还慢得要死。

现在换成中国公司z.ai的开源模型GLM4.6,用在Claude Code里面,速度快太多了,爽。还便宜,一个季度随便用也就180美刀。

Codex完全没法比。

美帝AI完蛋了,泡泡绝对爆。


#2 Re: GLM+Claude完胜CodeX

发表于 : 2025年 10月 15日 19:39
jkxf
hci 写了: 2025年 10月 15日 17:43

用Codex太贵了,Vide coding一个星期就花了400美刀,还搞不定稍微比较复杂的问题,关键还慢得要死。

现在换成中国公司z.ai的开源模型GLM4.6,用在Claude Code里面,速度快太多了,爽。还便宜,一个季度随便用也就180美刀。

Codex完全没法比。

美帝AI完蛋了,泡泡绝对爆。

cursor 如何?


#3 Re: GLM+Claude完胜CodeX

发表于 : 2025年 10月 15日 19:48
goodegg

这个确实不错

hci 写了: 2025年 10月 15日 17:43

用Codex太贵了,Vide coding一个星期就花了400美刀,还搞不定稍微比较复杂的问题,关键还慢得要死。

现在换成中国公司z.ai的开源模型GLM4.6,用在Claude Code里面,速度快太多了,爽。还便宜,一个季度随便用也就180美刀。

Codex完全没法比。

美帝AI完蛋了,泡泡绝对爆。


#4 Re: GLM+Claude完胜CodeX

发表于 : 2025年 10月 15日 20:09
hci

据说早就被Claude打败了,我就没试。

jkxf 写了: 2025年 10月 15日 19:39

cursor 如何?


#5 Re: GLM+Claude完胜CodeX

发表于 : 2025年 10月 15日 20:17
longtian

这个多少参数?多大?

hci 写了: 2025年 10月 15日 17:43

用Codex太贵了,Vide coding一个星期就花了400美刀,还搞不定稍微比较复杂的问题,关键还慢得要死。

现在换成中国公司z.ai的开源模型GLM4.6,用在Claude Code里面,速度快太多了,爽。还便宜,一个季度随便用也就180美刀。

Codex完全没法比。

美帝AI完蛋了,泡泡绝对爆。


#6 Re: GLM+Claude完胜CodeX

发表于 : 2025年 10月 15日 21:03
hci

As a Mixture-of-Experts (MoE) model, the GLM-4.6 model has a total of 355 billion parameters, with 32 billion parameters activated for each inference, or forward pass.

longtian 写了: 2025年 10月 15日 20:17

这个多少参数?多大?


#7 Re: GLM+Claude完胜CodeX

发表于 : 2025年 10月 15日 21:09
pnlmpnlm
hci 写了: 2025年 10月 15日 17:43

用Codex太贵了,Vide coding一个星期就花了400美刀,还搞不定稍微比较复杂的问题,关键还慢得要死。

现在换成中国公司z.ai的开源模型GLM4.6,用在Claude Code里面,速度快太多了,爽。还便宜,一个季度随便用也就180美刀。

Codex完全没法比。

美帝AI完蛋了,泡泡绝对爆。

Claude一个月100到的max plan就足够了吧。你非要用api干嘛


#8 Re: GLM+Claude完胜CodeX

发表于 : 2025年 10月 15日 21:15
mmking

凡是中帝可以做的事儿,都不会有溢价,泡泡爆掉确实是迟早的事儿

hci 写了: 2025年 10月 15日 17:43

用Codex太贵了,Vide coding一个星期就花了400美刀,还搞不定稍微比较复杂的问题,关键还慢得要死。

现在换成中国公司z.ai的开源模型GLM4.6,用在Claude Code里面,速度快太多了,爽。还便宜,一个季度随便用也就180美刀。

Codex完全没法比。

美帝AI完蛋了,泡泡绝对爆。


#9 Re: GLM+Claude完胜CodeX

发表于 : 2025年 10月 15日 21:43
hci

它是有limit的,肯定超支。API没有limit,随便用。vibe coding用的token数量大得惊人。

pnlmpnlm 写了: 2025年 10月 15日 21:09

Claude一个月100到的max plan就足够了吧。你非要用api干嘛


#10 Re: GLM+Claude完胜CodeX

发表于 : 2025年 10月 15日 22:15
pnlmpnlm
hci 写了: 2025年 10月 15日 21:43

它是有limit的,肯定超支。API没有limit,随便用。vibe coding用的token数量大得惊人。

这个我知道。我自己以前用Claude的api很快烧掉了400美元。后来让公司给我各种都买了,但是其实最后还是都用claude code,max对我反正是够用了,你结合好serena之类的mcp能减少token的使用。分析项目之类的没有必要用cc,免费的各种都能帮忙分析,然后编写的时候订好specs用cc就行。如果要改写大量以前的legacy代码的话那是不同。


#11 Re: GLM+Claude完胜CodeX

发表于 : 2025年 10月 15日 22:44
hci

我搞的就是大项目改写。现实工作中,大部分人干的,也是大项目改写。

pnlmpnlm 写了: 2025年 10月 15日 22:15

这个我知道。我自己以前用Claude的api很快烧掉了400美元。后来让公司给我各种都买了,但是其实最后还是都用claude code,max对我反正是够用了,你结合好serena之类的mcp能减少token的使用。分析项目之类的没有必要用cc,免费的各种都能帮忙分析,然后编写的时候订好specs用cc就行。如果要改写大量以前的legacy代码的话那是不同。


#12 Re: GLM+Claude完胜CodeX

发表于 : 2025年 10月 16日 00:48
longtian

你这种use case能不能花个2-3k自己搞个机器自己装个开源的模型,以后就完全不用担心费用问题

hci 写了: 2025年 10月 15日 22:44

我搞的就是大项目改写。现实工作中,大部分人干的,也是大项目改写。


#13 Re: GLM+Claude完胜CodeX

发表于 : 2025年 10月 16日 01:18
pnlmpnlm
hci 写了: 2025年 10月 15日 22:44

我搞的就是大项目改写。现实工作中,大部分人干的,也是大项目改写。

我只知道认识几个apple和meta搞infra的人,都使用claude,他们前几天还被claude邀请去因为用量非常大,回来后apple的那个和我说,以后争取不用写一行damn code了。当然是开玩笑,但是我估计可能看到一些能力更强的东西。


#14 Re: GLM+Claude完胜CodeX

发表于 : 2025年 10月 16日 12:53
hci

目前开源模型还是不如最好的闭源模型。写码找虫的能力,gml4.6比gpt5还是有较大差距。所以不能用来干复杂的事。

当然了,复杂逻辑gpt5也不行。难度过了一个坎之后,最好的AI也不行,因为它并不会真正的推理。

本质上,AI目前还不能取代人写码。

longtian 写了: 2025年 10月 16日 00:48

你这种use case能不能花个2-3k自己搞个机器自己装个开源的模型,以后就完全不用担心费用问题


#15 Re: GLM+Claude完胜CodeX

发表于 : 2025年 10月 16日 16:19
anesthetic
hci 写了: 2025年 10月 16日 12:53

目前开源模型还是不如最好的闭源模型。写码找虫的能力,gml4.6比gpt5还是有较大差距。所以不能用来干复杂的事。

当然了,复杂逻辑gpt5也不行。难度过了一个坎之后,最好的AI也不行,因为它并不会真正的推理。

本质上,AI目前还不能取代人写码。

我在512gb + 2 x 24gb 4090跑的qwen coder 3 480b, 大概12-15tokens,结果跟codex/Claude差不多。反正自己机器,24x7跑debug。很多国内中小公司现在都这样跑。


#16 Re: GLM+Claude完胜CodeX

发表于 : 2025年 10月 16日 16:56
hci

你自己攒的机子么?用什么主板?电源?水冷?花了多少钱?

anesthetic 写了: 2025年 10月 16日 16:19

我在512gb + 2 x 24gb 4090跑的qwen coder 3 480b, 大概12-15tokens,结果跟codex/Claude差不多。反正自己机器,24x7跑debug。很多国内中小公司现在都这样跑。


#17 Re: GLM+Claude完胜CodeX

发表于 : 2025年 10月 16日 17:19
fantasist
anesthetic 写了: 2025年 10月 16日 16:19

我在512gb + 2 x 24gb 4090跑的qwen coder 3 480b, 大概12-15tokens,结果跟codex/Claude差不多。反正自己机器,24x7跑debug。很多国内中小公司现在都这样跑。

这硬件配置quantize得惨不忍睹,能用?


#18 Re: GLM+Claude完胜CodeX

发表于 : 2025年 10月 16日 17:20
anesthetic
hci 写了: 2025年 10月 16日 16:56

你自己攒的机子么?用什么主板?电源?水冷?花了多少钱?

intel w3400 + x13swa
, 1200w PSU, 卡国内改的,cpu+mb用的开发版,一共差不多5k.


#19 Re: GLM+Claude完胜CodeX

发表于 : 2025年 10月 16日 17:32
anesthetic

现在所有model改现成的code其实都不太行,最好就是start from scratch. 接个project,把spec写好,扔给model,使劲跑,一周基本都搞定了。


#20 Re: GLM+Claude完胜CodeX

发表于 : 2025年 10月 16日 17:44
mrmaja
anesthetic 写了: 2025年 10月 16日 16:19

我在512gb + 2 x 24gb 4090跑的qwen coder 3 480b, 大概12-15tokens,结果跟codex/Claude差不多。反正自己机器,24x7跑debug。很多国内中小公司现在都这样跑。

两张4090 就能跑480B模型,难以置信,
12-15 tokens用起来很难受吧?