用Codex太贵了,Vide coding一个星期就花了400美刀,还搞不定稍微比较复杂的问题,关键还慢得要死。
现在换成中国公司z.ai的开源模型GLM4.6,用在Claude Code里面,速度快太多了,爽。还便宜,一个季度随便用也就180美刀。
Codex完全没法比。
美帝AI完蛋了,泡泡绝对爆。
版主: hci
用Codex太贵了,Vide coding一个星期就花了400美刀,还搞不定稍微比较复杂的问题,关键还慢得要死。
现在换成中国公司z.ai的开源模型GLM4.6,用在Claude Code里面,速度快太多了,爽。还便宜,一个季度随便用也就180美刀。
Codex完全没法比。
美帝AI完蛋了,泡泡绝对爆。
hci 写了: 2025年 10月 15日 17:43用Codex太贵了,Vide coding一个星期就花了400美刀,还搞不定稍微比较复杂的问题,关键还慢得要死。
现在换成中国公司z.ai的开源模型GLM4.6,用在Claude Code里面,速度快太多了,爽。还便宜,一个季度随便用也就180美刀。
Codex完全没法比。
美帝AI完蛋了,泡泡绝对爆。
cursor 如何?
艰难之际,右派冷漠,左派只会嘴炮反川,莫信所谓爱心
But if not, keep your soul beautiful.
Collect moments, not things.
这个确实不错
hci 写了: 2025年 10月 15日 17:43用Codex太贵了,Vide coding一个星期就花了400美刀,还搞不定稍微比较复杂的问题,关键还慢得要死。
现在换成中国公司z.ai的开源模型GLM4.6,用在Claude Code里面,速度快太多了,爽。还便宜,一个季度随便用也就180美刀。
Codex完全没法比。
美帝AI完蛋了,泡泡绝对爆。
这个多少参数?多大?
hci 写了: 2025年 10月 15日 17:43用Codex太贵了,Vide coding一个星期就花了400美刀,还搞不定稍微比较复杂的问题,关键还慢得要死。
现在换成中国公司z.ai的开源模型GLM4.6,用在Claude Code里面,速度快太多了,爽。还便宜,一个季度随便用也就180美刀。
Codex完全没法比。
美帝AI完蛋了,泡泡绝对爆。
As a Mixture-of-Experts (MoE) model, the GLM-4.6 model has a total of 355 billion parameters, with 32 billion parameters activated for each inference, or forward pass.
hci 写了: 2025年 10月 15日 17:43用Codex太贵了,Vide coding一个星期就花了400美刀,还搞不定稍微比较复杂的问题,关键还慢得要死。
现在换成中国公司z.ai的开源模型GLM4.6,用在Claude Code里面,速度快太多了,爽。还便宜,一个季度随便用也就180美刀。
Codex完全没法比。
美帝AI完蛋了,泡泡绝对爆。
Claude一个月100到的max plan就足够了吧。你非要用api干嘛
凡是中帝可以做的事儿,都不会有溢价,泡泡爆掉确实是迟早的事儿
hci 写了: 2025年 10月 15日 17:43用Codex太贵了,Vide coding一个星期就花了400美刀,还搞不定稍微比较复杂的问题,关键还慢得要死。
现在换成中国公司z.ai的开源模型GLM4.6,用在Claude Code里面,速度快太多了,爽。还便宜,一个季度随便用也就180美刀。
Codex完全没法比。
美帝AI完蛋了,泡泡绝对爆。
它是有limit的,肯定超支。API没有limit,随便用。vibe coding用的token数量大得惊人。
这个我知道。我自己以前用Claude的api很快烧掉了400美元。后来让公司给我各种都买了,但是其实最后还是都用claude code,max对我反正是够用了,你结合好serena之类的mcp能减少token的使用。分析项目之类的没有必要用cc,免费的各种都能帮忙分析,然后编写的时候订好specs用cc就行。如果要改写大量以前的legacy代码的话那是不同。
我搞的就是大项目改写。现实工作中,大部分人干的,也是大项目改写。
pnlmpnlm 写了: 2025年 10月 15日 22:15这个我知道。我自己以前用Claude的api很快烧掉了400美元。后来让公司给我各种都买了,但是其实最后还是都用claude code,max对我反正是够用了,你结合好serena之类的mcp能减少token的使用。分析项目之类的没有必要用cc,免费的各种都能帮忙分析,然后编写的时候订好specs用cc就行。如果要改写大量以前的legacy代码的话那是不同。
我只知道认识几个apple和meta搞infra的人,都使用claude,他们前几天还被claude邀请去因为用量非常大,回来后apple的那个和我说,以后争取不用写一行damn code了。当然是开玩笑,但是我估计可能看到一些能力更强的东西。
目前开源模型还是不如最好的闭源模型。写码找虫的能力,gml4.6比gpt5还是有较大差距。所以不能用来干复杂的事。
当然了,复杂逻辑gpt5也不行。难度过了一个坎之后,最好的AI也不行,因为它并不会真正的推理。
本质上,AI目前还不能取代人写码。
hci 写了: 2025年 10月 16日 12:53目前开源模型还是不如最好的闭源模型。写码找虫的能力,gml4.6比gpt5还是有较大差距。所以不能用来干复杂的事。
当然了,复杂逻辑gpt5也不行。难度过了一个坎之后,最好的AI也不行,因为它并不会真正的推理。
本质上,AI目前还不能取代人写码。
我在512gb + 2 x 24gb 4090跑的qwen coder 3 480b, 大概12-15tokens,结果跟codex/Claude差不多。反正自己机器,24x7跑debug。很多国内中小公司现在都这样跑。
你自己攒的机子么?用什么主板?电源?水冷?花了多少钱?
anesthetic 写了: 2025年 10月 16日 16:19我在512gb + 2 x 24gb 4090跑的qwen coder 3 480b, 大概12-15tokens,结果跟codex/Claude差不多。反正自己机器,24x7跑debug。很多国内中小公司现在都这样跑。
anesthetic 写了: 2025年 10月 16日 16:19我在512gb + 2 x 24gb 4090跑的qwen coder 3 480b, 大概12-15tokens,结果跟codex/Claude差不多。反正自己机器,24x7跑debug。很多国内中小公司现在都这样跑。
这硬件配置quantize得惨不忍睹,能用?
现在所有model改现成的code其实都不太行,最好就是start from scratch. 接个project,把spec写好,扔给model,使劲跑,一周基本都搞定了。
anesthetic 写了: 2025年 10月 16日 16:19我在512gb + 2 x 24gb 4090跑的qwen coder 3 480b, 大概12-15tokens,结果跟codex/Claude差不多。反正自己机器,24x7跑debug。很多国内中小公司现在都这样跑。
两张4090 就能跑480B模型,难以置信,
12-15 tokens用起来很难受吧?