Skip to content

1.4g Ollama(本地模型)

Ollama 让你可以在自己电脑上运行本地模型,数据完全不出本机,适合处理敏感信息。

学完你能做什么

  • 安装并验证 Ollama 是否正常工作
  • 根据你的硬件挑一个合适的本地模型并下载
  • 在 OpenCode 里配置并使用 Ollama 本地模型,完成第一次对话

跟我做

第 1 步:安装 Ollama

bash
# macOS
brew install ollama

# Linux
curl -fsSL https://ollama.com/install.sh | sh

# Windows
# 从官网下载安装包:https://ollama.com/download

验证安装:

bash
ollama --version

第 2 步:选一个适合你硬件的模型并下载

推荐模型(按硬件):

你的硬件推荐参数规模推荐模型
MacBook 16GB 统一内存3B~8Bllama3.2:3b / qwen2.5-coder:7b
独显 16GB 显存7B~14Bqwen2.5-coder:14b
独显 24GB 显存14B~32Bqwen2.5-coder:32b

下载模型:

bash
# 编程优先(推荐)
ollama pull qwen2.5-coder:7b

# 通用对话
ollama pull llama3.1:8b

第 3 步:启动 Ollama 服务

bash
ollama serve

第 4 步:在 OpenCode 配置本地 Ollama

编辑 ~/.config/opencode/opencode.json

json
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "ollama": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Ollama (local)",
      "options": {
        "baseURL": "http://localhost:11434/v1"
      },
      "models": {
        "qwen2.5-coder:7b": { "name": "Qwen2.5 Coder 7B (local)" },
        "llama3.1:8b": { "name": "Llama 3.1 8B (local)" }
      }
    }
  }
}

第 5 步:重启 OpenCode,选择本地模型并验证

bash
opencode

输入:/models

选择你下载的模型,然后发送一句话验证。

检查点

  • [ ] /models 里能看到 Ollama (local) 和你配置的模型
  • [ ] 发送一句话能收到回复

踩坑提醒

现象原因解决
/models 里看不到 Ollama (local)配置文件位置不对 / JSON 写错 / 没重启检查 JSON 并重启 OpenCode
connection refusedOllama 服务没启动先运行 ollama serve

下一步

进入 1.5 自动更新