OpenClaw Ollama 指南

将 OpenClaw 与 Ollama 配对的实用指南,用于本地模型控制、隐私保护和自托管实验。
2026/03/12

OpenClaw Ollama 指南

当你想要更多本地模型控制权,或者隐私和成本限制让云 API 不太合适时,这套配置就很有价值。


开始之前

在把 Ollama 加入技术栈之前,你应该已经在本地跑通了 OpenClaw。


第一步:安装 Ollama

  1. ollama.ai 下载 Ollama
  2. 为你的平台安装(macOS、Linux 或 Windows)
  3. 确认它在运行:ollama --version

Ollama 作为本地服务器运行,通常在 http://localhost:11434


第二步:拉取模型

拉取你想用的模型:

ollama pull llama3

好的起步模型:

  • llama3 —— 通用型,质量和速度平衡好
  • mistral —— 快且高效,适合简单任务
  • codellama —— 更适合代码相关任务
  • qwen2 —— 多语言支持强

先用一个模型。不要在测试之前拉五个模型。


第三步:确认 Ollama 响应正常

测试模型是否工作:

ollama run llama3 "Hello, how are you?"

如果返回了合理的回复,Ollama 就准备好了。


第四步:配置 OpenClaw 使用 Ollama

在 OpenClaw 配置中添加 Ollama 作为模型提供商:

{
  "providers": {
    "ollama": {
      "baseUrl": "http://localhost:11434",
      "model": "llama3"
    }
  }
}

然后把 Ollama 设为默认提供商,或分配给特定任务。


第五步:用简单任务测试

重启 Gateway,通过已连接的 channel 发一条简单消息。助手应该使用本地 Ollama 模型回复。

如果不行:

  • 确认 Ollama 在运行(ollama ps
  • 检查配置中的 baseUrl
  • 验证模型名称和你拉取的一致
  • 查看 Gateway 日志中的连接错误

Ollama 适合的场景

  • 研究草稿和摘要
  • 分类或分流任务
  • 本地优先的实验
  • 隐私敏感的工作流
  • 高流量简单任务的成本控制

Ollama 不太适合的场景

  • 每次都需要最强推理质量的任务
  • 准确性要求严格且任务变化大的场景
  • 还没有在更简单的托管路径上验证过 prompt 的情况

性能注意事项

本地模型跑在你的硬件上。性能取决于:

  • GPU:独立 GPU 显著提升速度
  • RAM:更大的模型需要更多内存(7B 模型约需 8GB,13B 模型约需 16GB+)
  • 模型大小:模型越小越快但能力越弱

如果回复很慢,试试更小的模型或检查硬件利用率。


接下来该看什么

OpenClaw Ollama 指南 | OpenClaw Agent Hub