骚瑞,我打错了命令 是 nvidia-smi
用colab 跑ollama很简单
版主: Jack12345
-
huangchong(净坛使者)楼主
- 论坛元老

2023-24年度优秀版主 - 帖子互动: 4483
- 帖子: 64640
- 注册时间: 2022年 7月 22日 01:22
#25 Re: 用colab 跑ollama很简单
貌似有给到 GPU
不过 ollama 部署貌似有问题
t# Couldn't find '/root/.ollama/id_ed25519'. Generating new private key.
-
huangchong(净坛使者)楼主
- 论坛元老

2023-24年度优秀版主 - 帖子互动: 4483
- 帖子: 64640
- 注册时间: 2022年 7月 22日 01:22
#26 Re: 用colab 跑ollama很简单
那你试试开一个新的colab窗口看看呢?colab关了以后硬盘就重置到标准状态,我能够直接装ollama,你应该也可以的 啊,我什么也没干就成功了呀。
我的bash命令历史 (nvitop是个python程序,可以动态显示gpu使用情况,实际是nvidia-smi的一个壳):
代码: 全选
1 curl https://ollama.ai/install.sh | sh
2 ollama serve
3 ollama serve&
4 ollama pull deepseek-r1
5 pip install ollama
6 pip install nvitop
7 ollama list
8 ollama list
9 nvitop
10 ollama help
11 ollama rm deepseek
12 ollama rm deepseek-r1
13 ollama pull deepseek-r1:32b
14 ollama pull qwen3
15 ollama pull gpt-oss
16 which ollama
17 cd /root/.ollama/
18 ll
19 cat id_ed25519
20 nvidia-smni
21 nvidia-smi
22 hisotry
23 history-
thinredline(Rich)
- 著名写手

- 帖子互动: 53
- 帖子: 259
- 注册时间: 2022年 9月 15日 16:37
-
huangchong(净坛使者)楼主
- 论坛元老

2023-24年度优秀版主 - 帖子互动: 4483
- 帖子: 64640
- 注册时间: 2022年 7月 22日 01:22
#29 Re: 用colab 跑ollama很简单
不用清空,就在左边开一个新的block,往里写程序就行。
我说清空,是因为左边经常是colab的文档页,看起来很乱。清空的意思就是把鼠标移动到右上,点删除按钮,把已有的内容删了,有个干净的开始(Ctrl+M D)
-
huangchong(净坛使者)楼主
- 论坛元老

2023-24年度优秀版主 - 帖子互动: 4483
- 帖子: 64640
- 注册时间: 2022年 7月 22日 01:22
-
huangchong(净坛使者)楼主
- 论坛元老

2023-24年度优秀版主 - 帖子互动: 4483
- 帖子: 64640
- 注册时间: 2022年 7月 22日 01:22
#32 Re: 用colab 跑ollama很简单
huangchong 写了: 2025年 12月 2日 00:12不用清空,就在左边开一个新的block,往里写程序就行。
我说清空,是因为左边经常是colab的文档页,看起来很乱。清空的意思就是把鼠标移动到右上,点删除按钮,把已有的内容删了,有个干净的开始(Ctrl+M D)
完了
(Ctrl+M D) 后
貌似断线了
右边的terminal 被清空了
-
huangchong(净坛使者)楼主
- 论坛元老

2023-24年度优秀版主 - 帖子互动: 4483
- 帖子: 64640
- 注册时间: 2022年 7月 22日 01:22
#34 Re: 用colab 跑ollama很简单
估计是Ctrl MD也删terminal窗口把。
你再开个terminal 打 ollama list,看ollama还在不在 下载的model还在不在
我的窗口关了又开好像内容还在
不过你重新来也花不了几分钟的
-
huangchong(净坛使者)楼主
- 论坛元老

2023-24年度优秀版主 - 帖子互动: 4483
- 帖子: 64640
- 注册时间: 2022年 7月 22日 01:22
#35 Re: 用colab 跑ollama很简单
小号的deepseek是可以的
你ollama pull deepseek,应该就是下载一个5G多大小的 deepseek-r1:14b
如果非要下载32b就是
ollama pull deepseek-r1:32b
不过 deepseek-r1:32b模型有19G大,超过VRAM大小,估计跑不快
#36 Re: 用colab 跑ollama很简单
huangchong 写了: 2025年 12月 2日 00:22估计是Ctrl MD也删terminal窗口把。
你再开个terminal 打 ollama list,看ollama还在不在 下载的model还在不在我的窗口关了又开好像内容还在
不过你重新来也花不了几分钟的
不知道是啥
这个?
#37 Re: 用colab 跑ollama很简单
第5步之后就不知道怎么弄了
/content# response = ollama.generate(model='deepseek-r1', prompt='how to use ollama in colab')
print(response['response'])
-bash: syntax error near unexpected token ('response['response']'
-bash: syntax error near unexpected token
-
huangchong(净坛使者)楼主
- 论坛元老

2023-24年度优秀版主 - 帖子互动: 4483
- 帖子: 64640
- 注册时间: 2022年 7月 22日 01:22
#38 Re: 用colab 跑ollama很简单
majia 写了: 2025年 12月 2日 00:30第5步之后就不知道怎么弄了
/content# response = ollama.generate(model='deepseek-r1', prompt='how to use ollama in colab')
print(response['response'])
-bash: syntax error near unexpected token('response['response']'
-bash: syntax error near unexpected token
这些是python
得在左边的notebook方框里(左边有播放键的那个地方)写,写完了按播放键就可以跑:
代码: 全选
import ollama
response = ollama.generate(model='gpt-oss', prompt='how to use ollama in colab')
print(response['response'])
有/content那个地方是terminal,不能搞这个
-
huangchong(净坛使者)楼主
- 论坛元老

2023-24年度优秀版主 - 帖子互动: 4483
- 帖子: 64640
- 注册时间: 2022年 7月 22日 01:22
-
huangchong(净坛使者)楼主
- 论坛元老

2023-24年度优秀版主 - 帖子互动: 4483
- 帖子: 64640
- 注册时间: 2022年 7月 22日 01:22





