分页: 1 / 1

#1 cursor&deepseek

发表于 : 2025年 1月 28日 08:54
huangchong
@(ヅ)

#2 Re: cursor&deepseek

发表于 : 2025年 1月 28日 09:01
(ヅ)
赶紧集成到vscode里面啊

现在这样还要copy & paste太傻了

cursor和windsurf或成这轮本地化最大输家

#3 Re: cursor&deepseek

发表于 : 2025年 1月 28日 09:05
huangchong
(ヅ) 写了: 2025年 1月 28日 09:01 赶紧集成到vscode里面啊

现在这样还要copy & paste太傻了

cursor和windsurf或成这轮本地化最大输家
属实,这个估计不难写个插件弄到vscode里吧,就是要求用户自己有个gpu

#4 Re: cursor&deepseek

发表于 : 2025年 1月 28日 09:07
(ヅ)
huangchong 写了: 2025年 1月 28日 09:05 属实,这个估计不难写个插件弄到vscode里吧,就是要求用户自己有个gpu
查了下已经有了

https://marketplace.visualstudio.com/it ... e.continue

#5 Re: cursor&deepseek

发表于 : 2025年 1月 28日 09:10
huangchong
(ヅ) 写了: 2025年 1月 28日 09:07 查了下已经有了

https://marketplace.visualstudio.com/it ... e.continue
newbee

#6 Re: cursor&deepseek

发表于 : 2025年 1月 28日 10:57
huangchong
(ヅ) 写了: 2025年 1月 28日 09:07 查了下已经有了

https://marketplace.visualstudio.com/it ... e.continue
(ヅ)


嘿嘿嘿 现在我可以在vscode里随便切换用llama3.1 8b 焊 deepseek r1:32b

前提是ollma在linux下正常安装(会被装成一个系统服务,systemctl 可以管理它)
不需要自己打ollama run,在continue里开始chat, 这个事件就通过ollama的网页api启动网络了。

~/.continue/config.json

代码: 全选

"models": [
    {
      "title": "Llama3.1 8B",
      "provider": "ollama",
      "model": "llama3.1:8b"
    },
    {
      "model": "deepseek-r1:32b",
      "provider": "ollama",
      "title": "deepseek-r1:32b"
    }

  ],
  "tabAutocompleteModel": {
    "title": "deepseek-r1:32b",
    "provider": "ollama",
    "model": "deepseek-r1:32b",
    "apiBase": "http://localhost:11434"
  },

https://docs.continue.dev/customize/mod ... ers/ollama

#7 Re: cursor&deepseek

发表于 : 2025年 1月 28日 10:58
(ヅ)
huangchong 写了: 2025年 1月 28日 10:57 (ヅ)


嘿嘿嘿 现在我可以在vscode里随便切换用llama3.1 8b 焊 deepseek r1:32b

前提是ollma在linux下正常安装(会被装成一个系统服务,systemctl 可以管理它)
不需要自己打ollama run,在continue里开始chat, 这个事件就通过ollama的网页api启动网络了。

~/.continue/config.json

代码: 全选

"models": [
    {
      "title": "Llama3.1 8B",
      "provider": "ollama",
      "model": "llama3.1:8b"
    },
    {
      "model": "deepseek-r1:32b",
      "provider": "ollama",
      "title": "deepseek-r1:32b"
    }

  ],
  "tabAutocompleteModel": {
    "title": "deepseek-r1:32b",
    "provider": "ollama",
    "model": "deepseek-r1:32b",
    "apiBase": "http://localhost:11434"
  },


https://docs.continue.dev/customize/mod ... ers/ollama
赞赞赞,回头整一个

#8 Re: cursor&deepseek

发表于 : 2025年 1月 28日 15:23
(ヅ)
huangchong 写了: 2025年 1月 28日 10:57 (ヅ)


嘿嘿嘿 现在我可以在vscode里随便切换用llama3.1 8b 焊 deepseek r1:32b

前提是ollma在linux下正常安装(会被装成一个系统服务,systemctl 可以管理它)
不需要自己打ollama run,在continue里开始chat, 这个事件就通过ollama的网页api启动网络了。

~/.continue/config.json

代码: 全选

"models": [
    {
      "title": "Llama3.1 8B",
      "provider": "ollama",
      "model": "llama3.1:8b"
    },
    {
      "model": "deepseek-r1:32b",
      "provider": "ollama",
      "title": "deepseek-r1:32b"
    }

  ],
  "tabAutocompleteModel": {
    "title": "deepseek-r1:32b",
    "provider": "ollama",
    "model": "deepseek-r1:32b",
    "apiBase": "http://localhost:11434"
  },

https://docs.continue.dev/customize/mod ... ers/ollama
我也整上了推理的时候感觉GPU在用力又没有用力,锯齿型的utilization曲线

CPU倒是给我干满了

我用的14b模型,6GB显存,分析code和给的建议还可以。跟cursor感觉差不多

#9 Re: cursor&deepseek

发表于 : 2025年 1月 28日 15:26
newstart
那些local 的基本都不是很好用,真的想要编程好用的需要用api,别怕浪费那么几块钱。

#10 Re: cursor&deepseek

发表于 : 2025年 1月 28日 20:56
(ヅ)
@huangchong 整这个比较好吧

https://hub.docker.com/r/ollama/ollama

跟host os基本上隔离了

#11 Re: cursor&deepseek

发表于 : 2025年 1月 28日 21:15
huangchong
(ヅ) 写了: 2025年 1月 28日 20:56 @huangchong 整这个比较好吧

https://hub.docker.com/r/ollama/ollama

跟host os基本上隔离了
ollama自己挺好装呀 为啥要做docker?

#12 Re: cursor&deepseek

发表于 : 2025年 1月 28日 21:24
(ヅ)
huangchong 写了: 2025年 1月 28日 21:15 ollama自己挺好装呀 为啥要做docker?
上面说啦,跟os隔离,只保留11434端口的接口

#13 Re: cursor&deepseek

发表于 : 2025年 1月 28日 23:36
nxgre
Mark

#14 Re: cursor&deepseek

发表于 : 2025年 1月 29日 20:34
huangchong
@(ヅ)

#15 Re: cursor&deepseek

发表于 : 2025年 1月 29日 20:34
(ヅ)
huangchong 写了: 2025年 1月 29日 20:34 @(ヅ)
看过啦

#16 Re: cursor&deepseek

发表于 : 2025年 1月 29日 20:36
(ヅ)

#17 Re: cursor&deepseek

发表于 : 2025年 1月 29日 20:41
huangchong
(ヅ) 写了: 2025年 1月 29日 20:36
这是什么?

#18 Re: cursor&deepseek

发表于 : 2025年 1月 29日 20:44
(ヅ)
huangchong 写了: 2025年 1月 29日 20:41 这是什么?
chinese fighting bear? 抖音上很出名的