自己玩DSR1我建议弄14b参数的模型

STEM版,合并数学,物理,化学,科学,工程,机械。不包括生物、医学相关,和计算机相关内容。

版主: verdeliteTheMatrix

wass
论坛精英
论坛精英
2024年度优秀版主
wass 的博客
帖子互动: 697
帖子: 7142
注册时间: 2022年 7月 23日 22:13

#42 Re: 自己玩DSR1我建议弄14b参数的模型

帖子 wass »

huangchong 写了: 2025年 2月 1日 18:42 ollama api:

https://www.postman.com/postman-student ... a-rest-api
我是说有一个open source vscode extension叫Cline

标签/Tags:
头像
Pegasi
知名作家
知名作家
帖子互动: 70
帖子: 1237
注册时间: 2022年 10月 22日 12:50

#43 Re: 自己玩DSR1我建议弄14b参数的模型

帖子 Pegasi »

huangchong 写了: 2025年 2月 1日 17:39 @Pegasi
我下了好几个。如果显卡有8G显存,建议先试试 qwen-7b
我试了下qwen的14b,速度还行,结果惨不忍睹
头像
Pegasi
知名作家
知名作家
帖子互动: 70
帖子: 1237
注册时间: 2022年 10月 22日 12:50

#44 Re: 自己玩DSR1我建议弄14b参数的模型

帖子 Pegasi »

dramawatcher1 写了: 2025年 2月 1日 14:06 我两块显卡。显存一块11gb 一块8gb。
用 14b , 100%的 GPU
用 32b , 30%/70% 的 CPU/GPU
用 70b , 100% 的 CPU

32b 和 70b 的时候,两块显卡显存占用率都是 80%
30B和70B都在哪下的?
头像
huangchong(净坛使者)
论坛元老
论坛元老
2023-24年度优秀版主
帖子互动: 3740
帖子: 57813
注册时间: 2022年 7月 22日 01:22

#45 Re: 自己玩DSR1我建议弄14b参数的模型

帖子 huangchong(净坛使者) »

Pegasi 写了: 2025年 2月 1日 20:17 我试了下qwen的14b,速度还行,结果惨不忍睹
对llm不可期望过高
头像
huangchong(净坛使者)
论坛元老
论坛元老
2023-24年度优秀版主
帖子互动: 3740
帖子: 57813
注册时间: 2022年 7月 22日 01:22

#46 Re: 自己玩DSR1我建议弄14b参数的模型

帖子 huangchong(净坛使者) »

wass 写了: 2025年 2月 1日 19:10 我是说有一个open source vscode extension叫Cline
哦,看上去有点意思
头像
huangchong(净坛使者)
论坛元老
论坛元老
2023-24年度优秀版主
帖子互动: 3740
帖子: 57813
注册时间: 2022年 7月 22日 01:22

#47 Re: 自己玩DSR1我建议弄14b参数的模型

帖子 huangchong(净坛使者) »

刚刚研究清楚:
ollama 缺省情况下,只给localhost:11434 提供服务。如果想把它做成网络服务,需要在 /etc/systemd/system/ollama.service 里加一句
Environment="OLLAMA_HOST=0.0.0.0"

然后重启机器


代码: 全选

[Service]
Environment="OLLAMA_HOST=0.0.0.0"
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama

我看网上有个地方也说了wsl怎么设置
https://github.com/ollama/ollama/issues/1431
上次由 huangchong 在 2025年 2月 1日 22:52 修改。
头像
Pegasi
知名作家
知名作家
帖子互动: 70
帖子: 1237
注册时间: 2022年 10月 22日 12:50

#48 Re: 自己玩DSR1我建议弄14b参数的模型

帖子 Pegasi »

huangchong 写了: 2025年 2月 1日 20:48 刚刚研究清楚:
ollama 缺省情况下,只给localhost:11434 提供服务。如果想把它做成网络服务,需要在 /etc/systemd/system/ollama.service 里加一句
Environment="OLLAMA_HOST=0.0.0.0"

然后重启机器


我看网上有个地方也说了wsl怎么设置

代码: 全选

[Service]
Environment="OLLAMA_HOST=0.0.0.0"
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
我直接让deepseek给写了一个带web ui的,一共20几行
头像
huangchong(净坛使者)
论坛元老
论坛元老
2023-24年度优秀版主
帖子互动: 3740
帖子: 57813
注册时间: 2022年 7月 22日 01:22

#49 Re: 自己玩DSR1我建议弄14b参数的模型

帖子 huangchong(净坛使者) »

Pegasi 写了: 2025年 2月 1日 20:53 我直接让deepseek给写了一个带web ui的,一共20几行
你怎么指挥他的?
头像
Pegasi
知名作家
知名作家
帖子互动: 70
帖子: 1237
注册时间: 2022年 10月 22日 12:50

#50 Re: 自己玩DSR1我建议弄14b参数的模型

帖子 Pegasi »

huangchong 写了: 2025年 2月 1日 21:21 你怎么指挥他的?
How to set up something like chatgpt or DeepSeek with a local LLM file, on my home network. Show me the code, python preferred.
x1 图片 x1 图片
头像
dramawatcher1(狗蛋大)
论坛精英
论坛精英
dramawatcher1 的博客
帖子互动: 198
帖子: 8035
注册时间: 2022年 7月 25日 13:14

#51 Re: 自己玩DSR1我建议弄14b参数的模型

帖子 dramawatcher1(狗蛋大) »

Pegasi 写了: 2025年 2月 1日 20:18 30B和70B都在哪下的?
我用的 ollama

然后用命令

ollama run Deepseek-R1:30b 就会自动下载

其他的模型类似。第一次运行的时候,如果没有,就会自动下载。

https://ollama.com/library/deepseek-r1
头像
Pegasi
知名作家
知名作家
帖子互动: 70
帖子: 1237
注册时间: 2022年 10月 22日 12:50

#52 Re: 自己玩DSR1我建议弄14b参数的模型

帖子 Pegasi »

dramawatcher1 写了: 2025年 2月 2日 09:51 我用的 ollama

然后用命令

ollama run Deepseek-R1:30b 就会自动下载

其他的模型类似。第一次运行的时候,如果没有,就会自动下载。

https://ollama.com/library/deepseek-r1
14B和30B都是RL蒸馏的Qwen,被洗脑的太厉害了
头像
huangchong(净坛使者)
论坛元老
论坛元老
2023-24年度优秀版主
帖子互动: 3740
帖子: 57813
注册时间: 2022年 7月 22日 01:22

#54 Re: 自己玩DSR1我建议弄14b参数的模型

帖子 huangchong(净坛使者) »

Pegasi 写了: 2025年 2月 3日 12:40 14B和30B都是RL蒸馏的Qwen,被洗脑的太厉害了
确实 ollama的模型名字很误导 lmstudio显示模型的全名 要好一些
wass
论坛精英
论坛精英
2024年度优秀版主
wass 的博客
帖子互动: 697
帖子: 7142
注册时间: 2022年 7月 23日 22:13

#55 Re: 自己玩DSR1我建议弄14b参数的模型

帖子 wass »

huangchong 写了: 2025年 2月 3日 13:23 确实 ollama的模型名字很误导 lmstudio显示模型的全名 要好一些
API还是ollama好用
头像
huangchong(净坛使者)
论坛元老
论坛元老
2023-24年度优秀版主
帖子互动: 3740
帖子: 57813
注册时间: 2022年 7月 22日 01:22

#56 Re: 自己玩DSR1我建议弄14b参数的模型

帖子 huangchong(净坛使者) »

wass 写了: 2025年 2月 3日 13:33 API还是ollama好用
我昨天搞清楚怎么用LM Studio 的命令行lms来做headless server了。


从0.35版的lmstudio开始,lmstudio允许不进图形界面开始网络服务。但是目前0.38,0.39版本有个问题,如果不开图形界面用lms server start企图开服务,就会报错退出。这个现象的原因是LMstudio 从appimage开始跑的话,会先吧程序解压在/tmp/.lmstudio..., 然后还会改写存在.cache/lmstudio里的很多文件,让它们都指向/tmp/.lmstudio,问题是它图形界面退出之后,这个指向的东西就没了。



解决方法是 找个合适的地方,建立一个lmstudio永久目录

代码: 全选

mkdir lmstudio
cd lmstudio
LM-Studio....AppImage       --appimage-extract

来把LM-studio 解压到一个固定的目录, 再用的时候不要跑LM-Studio..AppImage, 而是用在这个固定目录里的lmstudio 可执行文件来跑。
这种情况下 .cache/lmstudio里的设置文件会稳定指向这个固定目录,当用lms server start的时候,它就能找到lmstudio的位置,启动就没问题了。
x1 图片
头像
huangchong(净坛使者)
论坛元老
论坛元老
2023-24年度优秀版主
帖子互动: 3740
帖子: 57813
注册时间: 2022年 7月 22日 01:22

#57 Re: 自己玩DSR1我建议弄14b参数的模型

帖子 huangchong(净坛使者) »

lmstudio管理下载的模型的方式对用户比较友好,不仅在图形界面里让用户自己选,而且下载的模型就是目录加文件名,对人类友好

ollama如果不特意设置,会把下载的模型存在/usr/share/ollama下面的隐藏目录里(我就不知道有什么好藏的),然后文件名还都是hash字符串,人类就算知道它是怎么回事,也得自己开几个文件看看,不直观。


ollama有几个环境变量需要列一下:
export OLLAMA_HOST=0.0.0.0 #允许向任意网络客户地址开放服务,不然的话只能本机用
export OLLAMA_MODELS=/path/to/your/custom/directory #修改默认的模型存放地址

这些变量可以以如下方式加到 /etc/systemd/system/ollama.service 里来控制ollama服务的行为

代码: 全选

#/etc/systemd/system/ollama.service

[Service]
Environment="OLLAMA_HOST=0.0.0.0"
https://github.com/ollama/ollama/blob/main/docs/faq.md
头像
YouHi
论坛元老
论坛元老
YouHi 的博客
帖子互动: 2642
帖子: 36279
注册时间: 2022年 7月 22日 22:36

#58 Re: 自己玩DSR1我建议弄14b参数的模型

帖子 YouHi »

蝗虫牛逼啊。
著名网友名单
🇺🇸 NC CHINESE AMERICANS FOR TRUMP 🛩️
你也是Trump U毕业的吗???
bullogger(脆皮乳猪)
知名作家
知名作家
帖子互动: 167
帖子: 1088
注册时间: 2023年 1月 4日 02:20

#59 Re: 自己玩DSR1我建议弄14b参数的模型

帖子 bullogger(脆皮乳猪) »

wass
论坛精英
论坛精英
2024年度优秀版主
wass 的博客
帖子互动: 697
帖子: 7142
注册时间: 2022年 7月 23日 22:13

#60 Re: 自己玩DSR1我建议弄14b参数的模型

帖子 wass »

玩些什么?

怎么都是pdf打碎,save到chroma,然后rag?

有没有好的open source agent可以看?
回复

回到 “STEM”