cursor&deepseek
版主: huangchong
#6 Re: cursor&deepseek
(ヅ)
嘿嘿嘿 现在我可以在vscode里随便切换用llama3.1 8b 焊 deepseek r1:32b
前提是ollma在linux下正常安装(会被装成一个系统服务,systemctl 可以管理它)
不需要自己打ollama run,在continue里开始chat, 这个事件就通过ollama的网页api启动网络了。
~/.continue/config.json
代码: 全选
"models": [
{
"title": "Llama3.1 8B",
"provider": "ollama",
"model": "llama3.1:8b"
},
{
"model": "deepseek-r1:32b",
"provider": "ollama",
"title": "deepseek-r1:32b"
}
],
"tabAutocompleteModel": {
"title": "deepseek-r1:32b",
"provider": "ollama",
"model": "deepseek-r1:32b",
"apiBase": "http://localhost:11434"
},
https://docs.continue.dev/customize/mod ... ers/ollama
上次由 huangchong 在 2025年 1月 28日 10:58 修改。
原因: 未提供修改原因
原因: 未提供修改原因
#7 Re: cursor&deepseek
赞赞赞,回头整一个huangchong 写了: 2025年 1月 28日 10:57 (ヅ)
嘿嘿嘿 现在我可以在vscode里随便切换用llama3.1 8b 焊 deepseek r1:32b
前提是ollma在linux下正常安装(会被装成一个系统服务,systemctl 可以管理它)
不需要自己打ollama run,在continue里开始chat, 这个事件就通过ollama的网页api启动网络了。
~/.continue/config.json代码: 全选
"models": [ { "title": "Llama3.1 8B", "provider": "ollama", "model": "llama3.1:8b" }, { "model": "deepseek-r1:32b", "provider": "ollama", "title": "deepseek-r1:32b" } ], "tabAutocompleteModel": { "title": "deepseek-r1:32b", "provider": "ollama", "model": "deepseek-r1:32b", "apiBase": "http://localhost:11434" },
https://docs.continue.dev/customize/mod ... ers/ollama
#8 Re: cursor&deepseek
我也整上了推理的时候感觉GPU在用力又没有用力,锯齿型的utilization曲线huangchong 写了: 2025年 1月 28日 10:57 (ヅ)
嘿嘿嘿 现在我可以在vscode里随便切换用llama3.1 8b 焊 deepseek r1:32b
前提是ollma在linux下正常安装(会被装成一个系统服务,systemctl 可以管理它)
不需要自己打ollama run,在continue里开始chat, 这个事件就通过ollama的网页api启动网络了。
~/.continue/config.json代码: 全选
"models": [ { "title": "Llama3.1 8B", "provider": "ollama", "model": "llama3.1:8b" }, { "model": "deepseek-r1:32b", "provider": "ollama", "title": "deepseek-r1:32b" } ], "tabAutocompleteModel": { "title": "deepseek-r1:32b", "provider": "ollama", "model": "deepseek-r1:32b", "apiBase": "http://localhost:11434" },
https://docs.continue.dev/customize/mod ... ers/ollama
CPU倒是给我干满了
我用的14b模型,6GB显存,分析code和给的建议还可以。跟cursor感觉差不多
#11 Re: cursor&deepseek
ollama自己挺好装呀 为啥要做docker?(ヅ) 写了: 2025年 1月 28日 20:56 @huangchong 整这个比较好吧
https://hub.docker.com/r/ollama/ollama
跟host os基本上隔离了