完全够 我都可以在3090/24G上跑32b呢
自己玩DSR1我建议弄14b参数的模型
版主: verdelite, TheMatrix
-
- 论坛精英
dramawatcher1 的博客 - 帖子互动: 201
- 帖子: 8087
- 注册时间: 2022年 7月 25日 13:14
#26 Re: 自己玩DSR1我建议弄14b参数的模型
我两块显卡。显存一块11gb 一块8gb。
用 14b , 100%的 GPU
用 32b , 30%/70% 的 CPU/GPU
用 70b , 100% 的 CPU
32b 和 70b 的时候,两块显卡显存占用率都是 80%
用 14b , 100%的 GPU
用 32b , 30%/70% 的 CPU/GPU
用 70b , 100% 的 CPU
32b 和 70b 的时候,两块显卡显存占用率都是 80%
#30 Re: 自己玩DSR1我建议弄14b参数的模型
@Pegasi
我下了好几个。如果显卡有8G显存,建议先试试 qwen-7b
上次由 huangchong 在 2025年 2月 1日 17:50 修改。
#31 Re: 自己玩DSR1我建议弄14b参数的模型
模型名字里带code/coding的应该都是
vscode有个continue插件,可以用本地模型,我们关于它的讨论在joke版精华区
这个continue插件推荐用codellama当编程的聊天ai。我试了一下,DS各种distill版本也都不错
x1

#32 Re: 自己玩DSR1我建议弄14b参数的模型
好,我试试continuehuangchong 写了: 2025年 2月 1日 17:43 模型名字里带code/coding的应该都是
vscode有个continue插件,可以用本地模型,我们关于它的讨论在joke版精华区
这个continue插件推荐用codellama当编程的聊天ai。我试了一下,DS各种distill版本也都不错
#33 Re: 自己玩DSR1我建议弄14b参数的模型
@wass
前提是ollma在linux下正常安装(会被装成一个系统服务,systemctl 可以管理它)
代码: 全选
curl -fsSL https://ollama.com/install.sh | sh
#download deepseek-7b
ollama pull deepseek-r1:7b
~/.continue/config.json
代码: 全选
"models": [
{
"model": "deepseek-r1:7b",
"provider": "ollama",
"title": "deepseek-r1:7b"
}
],
"tabAutocompleteModel": {
"model": "deepseek-r1:7b",
"provider": "ollama",
"title": "deepseek-r1:7b",
"apiBase": "http://localhost:11434"
},
https://docs.continue.dev/customize/mod ... ers/ollama
上次由 huangchong 在 2025年 2月 1日 19:06 修改。
#34 Re: 自己玩DSR1我建议弄14b参数的模型
ollama上面的deepseek模型都是用其他小模型蒸馏deepseekR1得来的,具体是什麽看这里
https://ollama.com/library/deepseek-r1
https://ollama.com/library/deepseek-r1
x1

#35 Re: 自己玩DSR1我建议弄14b参数的模型
有完整的啊,1.5-671b都有啊huangchong 写了: 2025年 2月 1日 18:06 ollama上面的deepseek模型都是用其他小模型蒸馏deepseekR1得来的,具体是什麽看这里
https://ollama.com/library/deepseek-r1
#36 Re: 自己玩DSR1我建议弄14b参数的模型
我用Windows,已经用ollama serve设为Servicehuangchong 写了: 2025年 2月 1日 18:00 @wass
前提是ollma在linux下正常安装(会被装成一个系统服务,systemctl 可以管理它)不需要自己打ollama run,在continue里开始chat, 这个事件就通过ollama的网页api启动网络了。代码: 全选
curl -fsSL https://ollama.com/install.sh | sh #download deepseek-7b ollama pull deepseek-r1:7b
~/.continue/config.jsontab completion我还没有试过代码: 全选
"models": [ { "model": "deepseek-r1:7b", "provider": "ollama", "title": "deepseek-r1:7b" } ], "tabAutocompleteModel": { "model": "deepseek-r1:7b", "provider": "ollama", "title": "deepseek-r1:7b" "apiBase": "http://localhost:11434" },
https://docs.continue.dev/customize/mod ... ers/ollama