OpenClaw 接入本地模型完全指南:Ollama + Llama 3 实战
目录
不想把数据发到 OpenAI 或 Anthropic 的服务器?OpenClaw 原生支持接入本地运行的大语言模型,配合 Ollama,可以实现完全离线、零外部依赖的私有 AI 助手。
为什么要用本地模型?
- 隐私安全:对话内容完全不离开你的设备
- 零 API 费用:跑多少次都不花钱
- 离线可用:断网也能正常使用
- 无速率限制:不用担心 API 限额
- 可定制:可以微调模型适配特定场景
Ollama 是什么?
Ollama 是目前最流行的本地大模型运行框架,一行命令就能在本地跑起 Llama 3、Mistral、Qwen、DeepSeek 等主流开源模型,并提供与 OpenAI API 兼容的接口。OpenClaw 可以直接把 Ollama 当成 LLM 后端使用。
第一步:安装 Ollama
# macOS / Linux
curl -fsSL https://ollama.com/install.sh | sh
# Windows
# 下载 https://ollama.com/download/windows 安装包
# 验证安装
ollama --version
第二步:拉取模型
# Llama 3.1 8B(推荐,平衡性能和资源)
ollama pull llama3.1:8b
# Qwen2.5 7B(中文效果更好,国内用户推荐)
ollama pull qwen2.5:7b
# Mistral 7B(英文能力强)
ollama pull mistral:7b
# DeepSeek R1 7B(推理能力强)
ollama pull deepseek-r1:7b
第三步:启动 Ollama 服务
ollama serve
# 默认监听 http://127.0.0.1:11434
# 验证
curl http://127.0.0.1:11434/api/tags
第四步:配置 OpenClaw 接入 Ollama
在 OpenClaw 的模型配置中添加 Ollama 作为 LLM 后端:
# ~/.openclaw/config.yml
llm:
provider: ollama
base_url: http://127.0.0.1:11434
model: llama3.1:8b
# 如果想用 Qwen 中文效果更好:
# model: qwen2.5:7b
或者通过命令行配置:
openclaw config set llm.provider ollama
openclaw config set llm.model qwen2.5:7b
openclaw config set llm.base_url http://127.0.0.1:11434
第五步:测试连接
openclaw test llm
# 应该看到:LLM connection successful, model: qwen2.5:7b
不同设备的模型推荐
| 设备配置 | 推荐模型 | 内存占用 |
|---|---|---|
| 8GB 内存(无独显) | qwen2.5:7b / llama3.2:3b | ~5GB |
| 16GB 内存 | qwen2.5:14b / llama3.1:8b | ~10GB |
| 32GB+ 或有 GPU | qwen2.5:32b / llama3.1:70b | ~20GB+ |
| Apple M 系列芯片 | qwen2.5:14b(Metal 加速) | ~10GB |
性能对比:本地模型 vs 云端 API
坦诚说,本地 7B 模型的能力确实比不上 Claude 3.5 Sonnet 或 GPT-4o。但对于很多日常场景,7B 模型完全够用:
- ✅ 文本摘要、翻译、格式整理
- ✅ 简单的代码生成和解释
- ✅ 日程管理、提醒、简单问答
- ⚠️ 复杂推理和长文本分析能力有限
- ❌ 不如云端模型的多轮复杂任务规划
混合模式:本地 + 云端按需切换
OpenClaw 支持多模型配置,可以设置”默认用本地模型,特定任务切换云端”:
# ~/.openclaw/config.yml
llm:
default: ollama # 默认用本地
providers:
ollama:
base_url: http://127.0.0.1:11434
model: qwen2.5:7b
openai:
api_key: sk-xxx
model: gpt-4o
anthropic:
api_key: sk-ant-xxx
model: claude-3-5-sonnet
# 使用时切换
# /model openai 切换到 GPT-4o
# /model ollama 切换回本地
小结
Ollama + OpenClaw 是目前最简单的本地 AI 助手搭建方案。对于重视隐私、有稳定网络限制、或者不想每月支付 API 费用的用户,本地模型是非常值得投入的选项。从 Qwen2.5 7B 开始,感受一下完全私有的 AI 助手体验。
相关阅读:
- 从零开始用 OpenClaw 搭建属于自己的个人 AI 助手
- OpenClaw 企业私有化部署完全指南:安全、合规、高可用
- OpenClaw 国内大模型适配完全指南:通义、DeepSeek、文心、Kimi 全覆盖