但问题是:系统提示我设置了gpu,但是没有使用,咋回事?
用colab 跑ollama很简单
版主: Jack12345
-
huangchong(净坛使者)楼主
- 论坛元老

2023-24年度优秀版主 - 帖子互动: 4483
- 帖子: 64640
- 注册时间: 2022年 7月 22日 01:22
#46 Re: 用colab 跑ollama很简单
这么慢 看起来确实是没有用上gpu
你可以nvitop 用它来监视gpu的使用情况 在terminal里打pip install nvitop既可安装
-
huangchong(净坛使者)楼主
- 论坛元老

2023-24年度优秀版主 - 帖子互动: 4483
- 帖子: 64640
- 注册时间: 2022年 7月 22日 01:22
#47 Re: 用colab 跑ollama很简单
不对, 右边ollama的输出里说了它确实在用T4 GPU 会不会是你用的网络比较大 它塞不进显存?
修正:ollama log里确实也说了用了13.2G 显存 为啥用了3分就不知道了 也许第一次load有overhead?
-
huangchong(净坛使者)楼主
- 论坛元老

2023-24年度优秀版主 - 帖子互动: 4483
- 帖子: 64640
- 注册时间: 2022年 7月 22日 01:22
-
GreatCanada
- 论坛元老

- 帖子互动: 900
- 帖子: 43087
- 注册时间: 2022年 7月 25日 23:54
#50 Re: 用colab 跑ollama很简单
huangchong 写了: 2025年 12月 1日 20:58要用GPU,得去右上方Change runtime type 那里,把cpu session改成gpu session
1 打开colab,点页面左下的Terminal按钮,右边会打开一个terminal,可以在里面试试看colab给你多少空间,我的/content还有70G剩余,绰绰有余了
代码: 全选
df -h2 打如下命令,自动安装ollama
代码: 全选
curl https://ollama.ai/install.sh | sh3 打如下命令,开启ollama 网络服务
代码: 全选
ollama serve &4 打如下命令,下载openAI的gpt-oss模型(我试过,又快又好),下载大小13G
代码: 全选
ollama pull gpt-oss下载deepseek 14b (32b的有19G VRAM不足会很慢)
代码: 全选
ollama pull deepseek-r15 安装 python 的ollama 包(这个包目的是跟服务器通信,发送请求,然后打印LLM的输出)
代码: 全选
pip install ollama6 清空左边的colab notebook,在左边开一个新格子,运行这句话
代码: 全选
import ollama7 开始对话
gpt-oss:
代码: 全选
response = ollama.generate(model='gpt-oss', prompt='how to use ollama in colab') print(response['response'])deepseek-r1
代码: 全选
response = ollama.generate(model='deepseek-r1', prompt='how to use ollama in colab') print(response['response'])
能用TPU跑吗
-
huangchong(净坛使者)楼主
- 论坛元老

2023-24年度优秀版主 - 帖子互动: 4483
- 帖子: 64640
- 注册时间: 2022年 7月 22日 01:22
#51 Re: 用colab 跑ollama很简单
试了一下 不行
Ollama does not officially support TPUs (Tensor Processing Units) at this time. It is primarily designed to use Nvidia or AMD GPUs for hardware acceleration.

