我是说有一个open source vscode extension叫Cline
自己玩DSR1我建议弄14b参数的模型
版主: verdelite, TheMatrix
#44 Re: 自己玩DSR1我建议弄14b参数的模型
30B和70B都在哪下的?dramawatcher1 写了: 2025年 2月 1日 14:06 我两块显卡。显存一块11gb 一块8gb。
用 14b , 100%的 GPU
用 32b , 30%/70% 的 CPU/GPU
用 70b , 100% 的 CPU
32b 和 70b 的时候,两块显卡显存占用率都是 80%
#47 Re: 自己玩DSR1我建议弄14b参数的模型
刚刚研究清楚:
ollama 缺省情况下,只给localhost:11434 提供服务。如果想把它做成网络服务,需要在 /etc/systemd/system/ollama.service 里加一句
Environment="OLLAMA_HOST=0.0.0.0"
然后重启机器
我看网上有个地方也说了wsl怎么设置
https://github.com/ollama/ollama/issues/1431
ollama 缺省情况下,只给localhost:11434 提供服务。如果想把它做成网络服务,需要在 /etc/systemd/system/ollama.service 里加一句
Environment="OLLAMA_HOST=0.0.0.0"
然后重启机器
代码: 全选
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
我看网上有个地方也说了wsl怎么设置
https://github.com/ollama/ollama/issues/1431
上次由 huangchong 在 2025年 2月 1日 22:52 修改。
#48 Re: 自己玩DSR1我建议弄14b参数的模型
我直接让deepseek给写了一个带web ui的,一共20几行huangchong 写了: 2025年 2月 1日 20:48 刚刚研究清楚:
ollama 缺省情况下,只给localhost:11434 提供服务。如果想把它做成网络服务,需要在 /etc/systemd/system/ollama.service 里加一句
Environment="OLLAMA_HOST=0.0.0.0"
然后重启机器
我看网上有个地方也说了wsl怎么设置代码: 全选
[Service] Environment="OLLAMA_HOST=0.0.0.0" ExecStart=/usr/local/bin/ollama serve User=ollama Group=ollama
#50 Re: 自己玩DSR1我建议弄14b参数的模型
How to set up something like chatgpt or DeepSeek with a local LLM file, on my home network. Show me the code, python preferred.
x1
x1


-
- 论坛精英
dramawatcher1 的博客 - 帖子互动: 198
- 帖子: 8035
- 注册时间: 2022年 7月 25日 13:14
#51 Re: 自己玩DSR1我建议弄14b参数的模型
我用的 ollama
然后用命令
ollama run Deepseek-R1:30b 就会自动下载
其他的模型类似。第一次运行的时候,如果没有,就会自动下载。
https://ollama.com/library/deepseek-r1
#52 Re: 自己玩DSR1我建议弄14b参数的模型
14B和30B都是RL蒸馏的Qwen,被洗脑的太厉害了dramawatcher1 写了: 2025年 2月 2日 09:51 我用的 ollama
然后用命令
ollama run Deepseek-R1:30b 就会自动下载
其他的模型类似。第一次运行的时候,如果没有,就会自动下载。
https://ollama.com/library/deepseek-r1
#56 Re: 自己玩DSR1我建议弄14b参数的模型
我昨天搞清楚怎么用LM Studio 的命令行lms来做headless server了。
从0.35版的lmstudio开始,lmstudio允许不进图形界面开始网络服务。但是目前0.38,0.39版本有个问题,如果不开图形界面用lms server start企图开服务,就会报错退出。这个现象的原因是LMstudio 从appimage开始跑的话,会先吧程序解压在/tmp/.lmstudio..., 然后还会改写存在.cache/lmstudio里的很多文件,让它们都指向/tmp/.lmstudio,问题是它图形界面退出之后,这个指向的东西就没了。
解决方法是 找个合适的地方,建立一个lmstudio永久目录
代码: 全选
mkdir lmstudio
cd lmstudio
LM-Studio....AppImage --appimage-extract
来把LM-studio 解压到一个固定的目录, 再用的时候不要跑LM-Studio..AppImage, 而是用在这个固定目录里的lmstudio 可执行文件来跑。
这种情况下 .cache/lmstudio里的设置文件会稳定指向这个固定目录,当用lms server start的时候,它就能找到lmstudio的位置,启动就没问题了。
x1

#57 Re: 自己玩DSR1我建议弄14b参数的模型
lmstudio管理下载的模型的方式对用户比较友好,不仅在图形界面里让用户自己选,而且下载的模型就是目录加文件名,对人类友好
ollama如果不特意设置,会把下载的模型存在/usr/share/ollama下面的隐藏目录里(我就不知道有什么好藏的),然后文件名还都是hash字符串,人类就算知道它是怎么回事,也得自己开几个文件看看,不直观。
ollama有几个环境变量需要列一下:
export OLLAMA_HOST=0.0.0.0 #允许向任意网络客户地址开放服务,不然的话只能本机用
export OLLAMA_MODELS=/path/to/your/custom/directory #修改默认的模型存放地址
这些变量可以以如下方式加到 /etc/systemd/system/ollama.service 里来控制ollama服务的行为
https://github.com/ollama/ollama/blob/main/docs/faq.md
ollama如果不特意设置,会把下载的模型存在/usr/share/ollama下面的隐藏目录里(我就不知道有什么好藏的),然后文件名还都是hash字符串,人类就算知道它是怎么回事,也得自己开几个文件看看,不直观。
ollama有几个环境变量需要列一下:
export OLLAMA_HOST=0.0.0.0 #允许向任意网络客户地址开放服务,不然的话只能本机用
export OLLAMA_MODELS=/path/to/your/custom/directory #修改默认的模型存放地址
这些变量可以以如下方式加到 /etc/systemd/system/ollama.service 里来控制ollama服务的行为
代码: 全选
#/etc/systemd/system/ollama.service
[Service]
Environment="OLLAMA_HOST=0.0.0.0"