刚才Space讨论到美国什么时候“能迎头赶上”的问题,我做两个个人判断吧

对应老买买提的军事天地,观点交锋比较激烈。因为此版帖子太多,所以新帖不出现在首页新帖列表,防止首页新帖刷屏太快。

版主: Softfist

回复
和硕英亲王阿济格(Hošoi baturu cin wan)楼主
自助冻结自助冻结
帖子互动: 104
帖子: 2297
注册时间: 2024年 12月 13日 21:59

#1 刚才Space讨论到美国什么时候“能迎头赶上”的问题,我做两个个人判断吧

帖子 和硕英亲王阿济格(Hošoi baturu cin wan)楼主 »

刚才Space讨论到美国什么时候“能迎头赶上”的问题,我做两个个人判断吧

1)DeepSeek V3这个模型应该没有公司有兴趣去复现,因为他是在算力限制下的结果,fp8量化一定会损失精度;而DeepSeek V3 本身其实和其他同规模的大语言模型差不多。

如果没有算力限制,也不缺钱,大厂没必要重走一遍自己走过的路:比如Llama

2)但是R1这个基于RL的训练思路会有人复现。只需要找任何一个Base Model,加上一些无监督的数学/代码数据,就可以借助GRPO实现推理能力的提升。

我相信在1-2周内,Meta、Google、Amazon甚至Nvidia等公司内部就会有结果。

如果2周之内,美国公司都拿不出一个像样的和R1同级别的结果,那说明美国完了
midlander
论坛元老
论坛元老
帖子互动: 714
帖子: 31205
注册时间: 2022年 8月 5日 14:58

#2 Re: 刚才Space讨论到美国什么时候“能迎头赶上”的问题,我做两个个人判断吧

帖子 midlander »

最震撼的就是r1
而且非常容易复现,非常便宜

以后开源的都会蒸馏自己的模型

闭源的也会用
和硕英亲王阿济格 写了: 2025年 1月 27日 21:10 刚才Space讨论到美国什么时候“能迎头赶上”的问题,我做两个个人判断吧

1)DeepSeek V3这个模型应该没有公司有兴趣去复现,因为他是在算力限制下的结果,fp8量化一定会损失精度;而DeepSeek V3 本身其实和其他同规模的大语言模型差不多。

如果没有算力限制,也不缺钱,大厂没必要重走一遍自己走过的路:比如Llama

2)但是R1这个基于RL的训练思路会有人复现。只需要找任何一个Base Model,加上一些无监督的数学/代码数据,就可以借助GRPO实现推理能力的提升。

我相信在1-2周内,Meta、Google、Amazon甚至Nvidia等公司内部就会有结果。

如果2周之内,美国公司都拿不出一个像样的和R1同级别的结果,那说明美国完了
和硕英亲王阿济格(Hošoi baturu cin wan)楼主
自助冻结自助冻结
帖子互动: 104
帖子: 2297
注册时间: 2024年 12月 13日 21:59

#3 Re: 刚才Space讨论到美国什么时候“能迎头赶上”的问题,我做两个个人判断吧

帖子 和硕英亲王阿济格(Hošoi baturu cin wan)楼主 »

midlander 写了: 2025年 1月 27日 21:13 最震撼的就是r1
而且非常容易复现,非常便宜

以后开源的都会蒸馏自己的模型

闭源的也会用
这就是我说的吗

创新点就是用RL做post training
回复

回到 “军事天地(Military)”