当你想要更多本地模型控制权,或者隐私和成本限制让云 API 不太合适时,这套配置就很有价值。
在把 Ollama 加入技术栈之前,你应该已经在本地跑通了 OpenClaw。
ollama --versionOllama 作为本地服务器运行,通常在 http://localhost:11434。
拉取你想用的模型:
ollama pull llama3好的起步模型:
llama3 —— 通用型,质量和速度平衡好mistral —— 快且高效,适合简单任务codellama —— 更适合代码相关任务qwen2 —— 多语言支持强先用一个模型。不要在测试之前拉五个模型。
测试模型是否工作:
ollama run llama3 "Hello, how are you?"如果返回了合理的回复,Ollama 就准备好了。
在 OpenClaw 配置中添加 Ollama 作为模型提供商:
{
"providers": {
"ollama": {
"baseUrl": "http://localhost:11434",
"model": "llama3"
}
}
}然后把 Ollama 设为默认提供商,或分配给特定任务。
重启 Gateway,通过已连接的 channel 发一条简单消息。助手应该使用本地 Ollama 模型回复。
如果不行:
ollama ps)本地模型跑在你的硬件上。性能取决于:
如果回复很慢,试试更小的模型或检查硬件利用率。