#1 cursor&deepseek
发表于 : 2025年 1月 28日 08:54
@(ヅ)
属实,这个估计不难写个插件弄到vscode里吧,就是要求用户自己有个gpu
newbee
(ヅ)
代码: 全选
"models": [
{
"title": "Llama3.1 8B",
"provider": "ollama",
"model": "llama3.1:8b"
},
{
"model": "deepseek-r1:32b",
"provider": "ollama",
"title": "deepseek-r1:32b"
}
],
"tabAutocompleteModel": {
"title": "deepseek-r1:32b",
"provider": "ollama",
"model": "deepseek-r1:32b",
"apiBase": "http://localhost:11434"
},
赞赞赞,回头整一个huangchong 写了: 2025年 1月 28日 10:57 (ヅ)
嘿嘿嘿 现在我可以在vscode里随便切换用llama3.1 8b 焊 deepseek r1:32b
前提是ollma在linux下正常安装(会被装成一个系统服务,systemctl 可以管理它)
不需要自己打ollama run,在continue里开始chat, 这个事件就通过ollama的网页api启动网络了。
~/.continue/config.json代码: 全选
"models": [ { "title": "Llama3.1 8B", "provider": "ollama", "model": "llama3.1:8b" }, { "model": "deepseek-r1:32b", "provider": "ollama", "title": "deepseek-r1:32b" } ], "tabAutocompleteModel": { "title": "deepseek-r1:32b", "provider": "ollama", "model": "deepseek-r1:32b", "apiBase": "http://localhost:11434" },
https://docs.continue.dev/customize/mod ... ers/ollama
我也整上了推理的时候感觉GPU在用力又没有用力,锯齿型的utilization曲线huangchong 写了: 2025年 1月 28日 10:57 (ヅ)
嘿嘿嘿 现在我可以在vscode里随便切换用llama3.1 8b 焊 deepseek r1:32b
前提是ollma在linux下正常安装(会被装成一个系统服务,systemctl 可以管理它)
不需要自己打ollama run,在continue里开始chat, 这个事件就通过ollama的网页api启动网络了。
~/.continue/config.json代码: 全选
"models": [ { "title": "Llama3.1 8B", "provider": "ollama", "model": "llama3.1:8b" }, { "model": "deepseek-r1:32b", "provider": "ollama", "title": "deepseek-r1:32b" } ], "tabAutocompleteModel": { "title": "deepseek-r1:32b", "provider": "ollama", "model": "deepseek-r1:32b", "apiBase": "http://localhost:11434" },
https://docs.continue.dev/customize/mod ... ers/ollama
ollama自己挺好装呀 为啥要做docker?(ヅ) 写了: 2025年 1月 28日 20:56 @huangchong 整这个比较好吧
https://hub.docker.com/r/ollama/ollama
跟host os基本上隔离了
上面说啦,跟os隔离,只保留11434端口的接口
chinese fighting bear? 抖音上很出名的