侧边栏壁纸
博主头像
硅基核心 (Silicon Core)

行动起来,活在当下

  • 累计撰写 31 篇文章
  • 累计创建 1 个标签
  • 累计收到 0 条评论

目 录CONTENT

文章目录

Ollama + OpenClaw 真正本地部署:完全免费、断网可用、多模型切换!

jackyezhang
2026-02-08 / 0 评论 / 1 点赞 / 34 阅读 / 0 字
温馨提示:
本文最后更新于2026-02-08,若内容或图片失效,请留言反馈。 部分素材来自网络,若不小心影响到您的利益,请联系我们删除。

今天我们就来系统讲清楚一件很多人关心、但网上一直说不明白的事:如何通过本地模型部署 OpenClaw,实现真正 100% 本地运行的 AI 助手。整个过程无需付费、无需任何 API Key,并且在完全断网的情况下依然可以正常使用。更关键的是,OpenClaw 不仅支持部署,还支持自由切换不同的本地大模型——无论是 20B / 120B 的 GPT-OSS 开源模型,还是目前主流的 Qwen 3、GLM 4.7,甚至 Kimi 等模型,都可以在同一套环境中灵活使用。

openclaw.jpg

 

接下来我们就 通过 Ollama + OpenClaw 本地 AI 实战:免费、断网可用、多模型切换!支持 GPT-OSS / Qwen 3 / GLM 4.7等主流大模型!

 

 

前期环境准备

1、安装Git ,以管理员身份打开Powershell,执行下方的安装命令,或者你可以直接去官网下载安装包

winget install git.git

 

如果你执行命令后出现任何错误,可以通过下方的命令进行解决 

Set-ExecutionPolicy RemoteSigned -Scope CurrentUser

Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass

2、安装最新版 Ollama 客户端【点击下载

最新版 Ollama 已经完全适配运行OpenClaw

 

3、官方推荐的本地模型

OpenClaw 需要更大的上下文长度才能完成任务。建议使用至少 64k 个 token 的上下文长度。

以下是一些与 OpenClaw 兼容性良好的模型:

模型

描述

qwen3-coder

针对编码任务进行了优化

glm-4.7

强大的通用模型

glm-4.7-flash

性能与速度兼顾

gpt-oss:20b

性能与速度兼顾

gpt-oss:120b

能力提升

 

模型下载命令:

ollama run gpt-oss:20b

4、安装最新版 OpenClaw

 

通用安装命令:

curl -fsSL https://openclaw.ai/install.sh | bash

Windows 版安装命令:

iwr -useb https://openclaw.ai/install.ps1 | iex

 

安装完成后,您可以使用 Ollama 直接启动 OpenClaw 来连接本地模型:

ollama launch openclaw

如果您想配置 OpenClaw 而不立即启动服务:

ollama launch openclaw --config

如果网关已经在运行,它将自动重新加载

重启后启动的命令:

ollama launch openclaw

1
  1. 支付宝打赏

    qrcode alipay
  2. 微信打赏

    qrcode weixin

评论区