1.4g Ollama(本地模型)
Ollama 让你可以在自己电脑上运行本地模型,数据完全不出本机,适合处理敏感信息。
学完你能做什么
- 安装并验证 Ollama 是否正常工作
- 根据你的硬件挑一个合适的本地模型并下载
- 在 OpenCode 里配置并使用 Ollama 本地模型,完成第一次对话
跟我做
第 1 步:安装 Ollama
bash
# macOS
brew install ollama
# Linux
curl -fsSL https://ollama.com/install.sh | sh
# Windows
# 从官网下载安装包:https://ollama.com/download验证安装:
bash
ollama --version第 2 步:选一个适合你硬件的模型并下载
推荐模型(按硬件):
| 你的硬件 | 推荐参数规模 | 推荐模型 |
|---|---|---|
| MacBook 16GB 统一内存 | 3B~8B | llama3.2:3b / qwen2.5-coder:7b |
| 独显 16GB 显存 | 7B~14B | qwen2.5-coder:14b |
| 独显 24GB 显存 | 14B~32B | qwen2.5-coder:32b |
下载模型:
bash
# 编程优先(推荐)
ollama pull qwen2.5-coder:7b
# 通用对话
ollama pull llama3.1:8b第 3 步:启动 Ollama 服务
bash
ollama serve第 4 步:在 OpenCode 配置本地 Ollama
编辑 ~/.config/opencode/opencode.json:
json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"qwen2.5-coder:7b": { "name": "Qwen2.5 Coder 7B (local)" },
"llama3.1:8b": { "name": "Llama 3.1 8B (local)" }
}
}
}
}第 5 步:重启 OpenCode,选择本地模型并验证
bash
opencode输入:/models
选择你下载的模型,然后发送一句话验证。
检查点
- [ ] /models 里能看到 Ollama (local) 和你配置的模型
- [ ] 发送一句话能收到回复
踩坑提醒
| 现象 | 原因 | 解决 |
|---|---|---|
| /models 里看不到 Ollama (local) | 配置文件位置不对 / JSON 写错 / 没重启 | 检查 JSON 并重启 OpenCode |
| connection refused | Ollama 服务没启动 | 先运行 ollama serve |
下一步
进入 1.5 自动更新。

