要用GPU,得去右上方Change runtime type 那里,把cpu session改成gpu session
1 打开colab,点页面左下的Terminal按钮,右边会打开一个terminal,可以在里面试试看colab给你多少空间,我的/content还有70G剩余,绰绰有余了
代码: 全选
df -h2 打如下命令,自动安装ollama
代码: 全选
curl https://ollama.ai/install.sh | sh3 打如下命令,开启ollama 网络服务
代码: 全选
ollama serve & 4 打如下命令,下载openAI的gpt-oss模型(我试过,又快又好),下载大小13G
代码: 全选
ollama pull gpt-oss下载deepseek 14b (32b的有19G VRAM不足会很慢)
代码: 全选
ollama pull deepseek-r15 安装 python 的ollama 包(这个包目的是跟服务器通信,发送请求,然后打印LLM的输出)
代码: 全选
pip install ollama6 清空左边的colab notebook,在左边开一个新格子,运行这句话
代码: 全选
import ollama7 开始对话
gpt-oss:
代码: 全选
response = ollama.generate(model='gpt-oss', prompt='how to use ollama in colab')
print(response['response'])deepseek-r1
代码: 全选
response = ollama.generate(model='deepseek-r1', prompt='how to use ollama in colab')
print(response['response'])



