如果你已经在用 OpenClaw v2026.3.24,很可能遇到两类矛盾:记忆检索 / 嵌入调用又频又贵,而对话质量仍想交给云端大模型。把 Ollama 放在同一台 远程 Mac 上跑本地嵌入,把 completion 仍指向 Anthropic / OpenAI 等,是典型的混合部署。本文给出 2026 年可复现的决策表、Ollama 安装与模型自检、OpenClaw 推荐配置顺序,以及如何在 VNC 图形会话里完成验证与排错;并链到站内 Docker、报错与 launchd 文章。
① 混合部署适合谁:三种架构对比
纯云端适合原型期与低调用量:配置最少,但嵌入与检索一旦高频,账单与延迟都会抬升。全本地适合强合规与离线场景,但对 Apple Silicon 内存与模型管理要求高。混合(本文主线)在 2026 年很常见:嵌入走本地 Ollama 小模型,主对话仍用云端强模型,兼顾成本、隐私边界与回答质量。你在 VNCMac 这类远程物理 Mac 上操作时,能同时打开终端、浏览器与系统设置,比纯 SSH 更容易完成首次授权与可视化核对。
② 痛点清单:成本、隐私与运维
- 调用次数被低估:RAG、工具链、多轮摘要都会反复触发嵌入;按月汇总往往比「偶尔问一句」高一个数量级。
- 敏感片段出网焦虑:日志、工单、内部 wiki 切块后向量化,合规团队会关心「哪些字段离开内网」。
- 环境漂移:远程节点重装或换机后,Ollama 模型目录与 OpenClaw 配置若不同步,会出现「昨天还能搜,今天全空」的假故障。
- 无图形会话的隐性成本:浏览器控制台、本机回环端口、钥匙串类提示在 SSH-only 下极难第一时间看清,排障周期被拉长。
③ 决策矩阵:全云端 / 混合 / 全本地
| 模式 | 适用场景 | 主要收益 | 主要代价 |
|---|---|---|---|
| 全云端嵌入 + 云端对话 | PoC、调用极低 | 运维最简单 | 高频费用与出网面最大 |
| 本地嵌入(Ollama)+ 云端对话 | 生产助理、知识库检索、中小团队 | 嵌入成本可控、敏感切块可留本地 | 需维护模型与磁盘;要监控内存 |
| 全本地 | 强隔离、弱外联 | 出网面最小 | 模型能力/吞吐受限;升级复杂 |
④ 落地步骤:Ollama → 模型 → OpenClaw → 验证(至少 7 步)
v2026.3.24 或与团队对齐的 2026.3.x 线,避免配置项名称与文档不一致。brew install ollama;安装后确保服务监听本机(默认 127.0.0.1:11434)。ollama pull nomic-embed-text(名称以团队选型为准);用 ollama list 核对已缓存。curl http://127.0.0.1:11434/api/tags 应返回 JSON;若失败,优先查防火墙与进程是否启动。http://127.0.0.1:11434/v1 搭配指定模型名),对话用 API Key 仍指向云端供应商;具体键名以你方 config / 向导为准,改后务必保存并重启网关。openclaw doctor 或项目文档推荐的 health 命令,确认「嵌入请求」打到本机而非误配外网。⑤ 可引用参数与资源占用
- 端口:Ollama HTTP 默认
11434;与 OpenClaw 网关(如18789)区分,避免混填。 - 内存经验值:纯嵌入小模型在 Apple Silicon 上常占用数 GB 统一内存;与对话模型并发时要预留余量,避免与 Xcode 等大进程争抢。
- 磁盘:每个拉取的模型会产生独立 blob;远程 Mac 磁盘紧张时,定期
ollama list+ 清理未用 tag。
若团队统一容器交付,可将本机 Ollama 与网关分层,参考《OpenClaw 官方 Docker 实战》;混合模式下注意容器内 localhost 不是宿主机 localhost,需改为主机名或桥接地址。
⑥ 常见报错与 FAQ
连接被拒绝 11434:服务未起或被安全软件拦;在 VNC 里打开「活动监视器」搜索 ollama。
模型不存在:嵌入模型名与 OpenClaw 配置不一致;以 ollama list 为准逐项对齐。
嵌入成功但检索空:多是索引未重建或路径变更;按项目文档触发重索引,并查看网关日志是否报 4xx。
更系统的安装与运行异常,请交叉阅读《OpenClaw 常见报错排查》。
结语
混合部署的价值不在「多装一个 Ollama」,而在于把高频、可本地化的工作负载从云端账单与合规风险里剥离出去,同时保留强模型对话的体验。若在自家 Windows 或低配机器上硬跑全套,往往会卡在驱动、权限与常驻进程稳定性;而真实 macOS + Apple Silicon 环境、再配合可图形化操作的远程桌面,能把首次配置与后续升级的时间明显压短。若你不想为偶尔用的 AI 工作流购置固定硬件,又希望环境接近真实 Mac 生产配置,租用 VNCMac 的远程 Mac是更省心的路径:在 VNC 里完成 Ollama 与 OpenClaw 的联调、核对端口与日志,再把同样步骤沉淀给团队即可。