入门教程

OpenClaw 接入本地模型完全指南:Ollama + Llama 3 实战

· 约 8 分钟阅读

不想把数据发到 OpenAI 或 Anthropic 的服务器?OpenClaw 原生支持接入本地运行的大语言模型,配合 Ollama,可以实现完全离线、零外部依赖的私有 AI 助手。

为什么要用本地模型?

  • 隐私安全:对话内容完全不离开你的设备
  • 零 API 费用:跑多少次都不花钱
  • 离线可用:断网也能正常使用
  • 无速率限制:不用担心 API 限额
  • 可定制:可以微调模型适配特定场景

Ollama 是什么?

Ollama 是目前最流行的本地大模型运行框架,一行命令就能在本地跑起 Llama 3、Mistral、Qwen、DeepSeek 等主流开源模型,并提供与 OpenAI API 兼容的接口。OpenClaw 可以直接把 Ollama 当成 LLM 后端使用。

第一步:安装 Ollama

# macOS / Linux
curl -fsSL https://ollama.com/install.sh | sh

# Windows
# 下载 https://ollama.com/download/windows 安装包

# 验证安装
ollama --version

第二步:拉取模型

# Llama 3.1 8B(推荐,平衡性能和资源)
ollama pull llama3.1:8b

# Qwen2.5 7B(中文效果更好,国内用户推荐)
ollama pull qwen2.5:7b

# Mistral 7B(英文能力强)
ollama pull mistral:7b

# DeepSeek R1 7B(推理能力强)
ollama pull deepseek-r1:7b

第三步:启动 Ollama 服务

ollama serve
# 默认监听 http://127.0.0.1:11434

# 验证
curl http://127.0.0.1:11434/api/tags

第四步:配置 OpenClaw 接入 Ollama

在 OpenClaw 的模型配置中添加 Ollama 作为 LLM 后端:

# ~/.openclaw/config.yml
llm:
  provider: ollama
  base_url: http://127.0.0.1:11434
  model: llama3.1:8b
  # 如果想用 Qwen 中文效果更好:
  # model: qwen2.5:7b

或者通过命令行配置:

openclaw config set llm.provider ollama
openclaw config set llm.model qwen2.5:7b
openclaw config set llm.base_url http://127.0.0.1:11434

第五步:测试连接

openclaw test llm
# 应该看到:LLM connection successful, model: qwen2.5:7b

不同设备的模型推荐

设备配置 推荐模型 内存占用
8GB 内存(无独显) qwen2.5:7b / llama3.2:3b ~5GB
16GB 内存 qwen2.5:14b / llama3.1:8b ~10GB
32GB+ 或有 GPU qwen2.5:32b / llama3.1:70b ~20GB+
Apple M 系列芯片 qwen2.5:14b(Metal 加速) ~10GB

性能对比:本地模型 vs 云端 API

坦诚说,本地 7B 模型的能力确实比不上 Claude 3.5 Sonnet 或 GPT-4o。但对于很多日常场景,7B 模型完全够用:

  • ✅ 文本摘要、翻译、格式整理
  • ✅ 简单的代码生成和解释
  • ✅ 日程管理、提醒、简单问答
  • ⚠️ 复杂推理和长文本分析能力有限
  • ❌ 不如云端模型的多轮复杂任务规划

混合模式:本地 + 云端按需切换

OpenClaw 支持多模型配置,可以设置”默认用本地模型,特定任务切换云端”:

# ~/.openclaw/config.yml
llm:
  default: ollama  # 默认用本地
  providers:
    ollama:
      base_url: http://127.0.0.1:11434
      model: qwen2.5:7b
    openai:
      api_key: sk-xxx
      model: gpt-4o
    anthropic:
      api_key: sk-ant-xxx
      model: claude-3-5-sonnet

# 使用时切换
# /model openai   切换到 GPT-4o
# /model ollama   切换回本地

小结

Ollama + OpenClaw 是目前最简单的本地 AI 助手搭建方案。对于重视隐私、有稳定网络限制、或者不想每月支付 API 费用的用户,本地模型是非常值得投入的选项。从 Qwen2.5 7B 开始,感受一下完全私有的 AI 助手体验。


相关阅读:

📚 相关文章

分享到: QQ 微博