(转载)deepseek还有一个重要发现
版主: verdelite, TheMatrix
-
- 论坛元老
Caravel 的博客 - 帖子互动: 633
- 帖子: 26128
- 注册时间: 2022年 7月 24日 17:21
#1 (转载)deepseek还有一个重要发现
此帖转自 Caravel 在 军事天地(Military) 的帖子:deepseek还有一个重要发现
就是不仅R1很厉害
只要用R1蒸馏一个小的8b,32b的小的开源model,小model在特定问题就能达到80%,90%的performance。
这些小model可以部署在PC上面,甚至手机上,不需要非常昂贵的gpu。
"DeepSeek-R1-Distill-Qwen-1.5B outperforms GPT-4o and Claude-3.5-Sonnet on math benchmarks with 28.9% on AIME and 83.9% on MATH"
People have gotten this 1.5B model running on phones. The slightly bigger models like 8B or even 32B can probably run on existing data center server hardware, which has a huge impact on AI Infrastructure investment planning - you don't need Nvidia chips or anything fancy to run these small models.
就是不仅R1很厉害
只要用R1蒸馏一个小的8b,32b的小的开源model,小model在特定问题就能达到80%,90%的performance。
这些小model可以部署在PC上面,甚至手机上,不需要非常昂贵的gpu。
"DeepSeek-R1-Distill-Qwen-1.5B outperforms GPT-4o and Claude-3.5-Sonnet on math benchmarks with 28.9% on AIME and 83.9% on MATH"
People have gotten this 1.5B model running on phones. The slightly bigger models like 8B or even 32B can probably run on existing data center server hardware, which has a huge impact on AI Infrastructure investment planning - you don't need Nvidia chips or anything fancy to run these small models.
标签/Tags:
#2 Re: (转载)deepseek还有一个重要发现
卖女大,买卖塔,骨骼,味软
裁裁裁,凡是中国开始白菜的东西都不能碰
裁裁裁,凡是中国开始白菜的东西都不能碰
如果你家被人烧杀抢掠了,你把这个故事告诉你子孙就是仇恨教育,那么跟随施暴者一起贴这个标签的xx和施暴者一样可恶
凡所有相,皆是虚妄
#3 Re: (转载)deepseek还有一个重要发现
我整了个32b在本地,只能用cpu跑那叫一个慢Caravel 写了: 2025年 1月 24日 14:12 此帖转自 Caravel 在 军事天地(Military) 的帖子:deepseek还有一个重要发现
就是不仅R1很厉害
只要用R1蒸馏一个小的8b,32b的小的开源model,小model在特定问题就能达到80%,90%的performance。
这些小model可以部署在PC上面,甚至手机上,不需要非常昂贵的gpu。
"DeepSeek-R1-Distill-Qwen-1.5B outperforms GPT-4o and Claude-3.5-Sonnet on math benchmarks with 28.9% on AIME and 83.9% on MATH"
People have gotten this 1.5B model running on phones. The slightly bigger models like 8B or even 32B can probably run on existing data center server hardware, which has a huge impact on AI Infrastructure investment planning - you don't need Nvidia chips or anything fancy to run these small models.
问个问题几分钟才磨磨蹭蹭说完
-
- 论坛元老
Caravel 的博客 - 帖子互动: 633
- 帖子: 26128
- 注册时间: 2022年 7月 24日 17:21
-
- 论坛元老
Caravel 的博客 - 帖子互动: 633
- 帖子: 26128
- 注册时间: 2022年 7月 24日 17:21
#12 Re: (转载)deepseek还有一个重要发现
这个地方有个表,大致是说算GPU内存需求的话,有模型自己的大小(quantized的模型估计就是下载大小),加上k/v缓存,加上一点点overhead
https://smcleod.net/2024/12/bringing-k/ ... to-ollama/
我试了一个32B Q3_K_S, GGUF格式的模型,下载14G,全在显卡里跑的时候用17G显存
另一个7B Q4_K_M的模型下载4.4G,跑的时候7G
#13 Re: (转载)deepseek还有一个重要发现
果然膨胀了,我去整个14b的试试看能不能在显存里面跑huangchong 写了: 2025年 1月 25日 10:30
这个地方有个表,大致是说算GPU内存需求的话,有模型自己的大小(quantized的模型估计就是下载大小),加上k/v缓存,加上一点点overhead
https://smcleod.net/2024/12/bringing-k/ ... to-ollama/
我试了一个32B Q3_K_S, GGUF格式的模型,下载14G,全在显卡里跑的时候用17G显存
另一个7B Q4_K_M的模型下载4.4G,跑的时候7G