自留地
切勿乱来!
     找回密码     哈林摇

养虾教程 本地Windows部署 OpenClaw + Ollama 保姆级教程

准备工作(硬件、软件与环境)

在开始敲命令前,建议先检查一下你的电脑装备,这决定了后续流程是否顺畅。

1. 硬件要求

本地运行AI模型对配置有一定要求,特别是显卡。

显卡(GPU):

推荐配置:NVIDIA 显卡,显存 ≥ 8GB(如 RTX 3060/4060 及以上),可流畅运行 7B~14B 模型 。

丐版配置:显存 4GB,可运行 Qwen2.5:4b 等轻量模型 。

无显卡:纯CPU模式也能跑,但速度会比较慢,适合简单尝鲜 。

内存:建议 ≥ 16GB(如果运行14B大模型,建议32GB) 。

硬盘:建议预留 20GB 以上的空闲空间(最好装在SSD固态硬盘里) 。

2. 软件要求

系统:Windows 10/11 64位(本文基于 Windows 11 22H2) 。

终端:PowerShell(必须以管理员身份运行)。

Node.js:版本必须 ≥ 18.0.0,强烈推荐 v22.x LTS 。

Git:可选,但安装插件时可能用到 。

3. 环境检查与 Node.js 安装
以管理员身份打开 PowerShell,输入以下命令检查:

# 检查Node.js版本,若未安装或版本过低,需安装或升级
node --version
# 检查npm版本
npm --version

如果版本低于要求,建议使用 nvm-windows 来安装管理 Node.js 版本:

# 1. 安装 nvm(需手动去GitHub下载安装包:https://github.com/coreybutler/nvm-windows/releases)
# 2. 安装完成后,在管理员 PowerShell 中安装 Node.js 22 版本
nvm install 22
# 3. 使用该版本
nvm use 22.22.0
# 4. 配置 npm 国内镜像源(加速后续下载)
npm config set registry https://registry.npmmirror.com

或者直接官网构建https://nodejs.org/zh-cn/download

部署“大脑”——Ollama 与本地模型

Ollama 负责管理和运行大模型,它是 OpenClaw 的“大脑”。

1. 安装 Ollama

去 Ollama 官网https://ollama.com/ 下载 Windows 版本,双击安装即可。安装后 Ollama 会自动在后台运行。
验证安装:

ollama --version

拉取基础模型(以通义千问为例)

推荐使用国产的 Qwen 系列,中文理解能力强,适配性好 。根据你的显存选择其一:

# 7B模型(约4.7GB,显存≥8GB推荐)
ollama pull qwen2.5:7b

# 或者 4B轻量版(约2.9GB,显存4GB可选)
# ollama pull qwen2.5:4b

核心定制:扩展上下文窗口

OpenClaw 要求模型上下文窗口至少 16000 tokens,而 Ollama 拉取的模型默认只有 4096,因此必须手动定制 。
操作步骤:
在管理员 PowerShell 中逐行执行:

# 1. 切换到你的用户目录(请将 <你的用户名> 替换成你实际的用户名,如 Administrator)
cd C:\Users\<你的用户名>

# 2. 创建模型配置文件 Modelfile,设置上下文窗口为 32768
@"FROM qwen2.5:7b
PARAMETER num_ctx 32768"@ | Out-File -Encoding ascii Modelfile

# 3. 基于该配置创建新模型(命名为 qwen2.5:7b-32k)
ollama create qwen2.5:7b-32k -f Modelfile

# 4. 验证新模型是否创建成功
ollama list

部署“躯干”——OpenClaw 安装与对接

1. 安装 OpenClaw

在管理员 PowerShell 中执行:

# 全局安装 openclaw
npm install -g openclaw

# 验证安装
openclaw --version

如果遇到权限错误,可以尝试 npm install -g openclaw --unsafe-perm

2. 配置 OpenClaw 对接本地 Ollama

执行配置向导:

openclaw onboard

接下来会进入交互界面,请按照下表严格填写 :

Model/auth provider 选择 Custom Provider               //选择自定义模型提供商
API Base URL 输入http://127.0.0.1:11434/v1              //Ollama默认的 API 地址
API Key 输入ollama (或任意字符,不要留空)              //Ollama 本地不校验 Key,但必须填
Endpoint compatibility 选择 OpenAI-compatible       //选择兼容模式
Model ID 输入qwen2.5:7b-32k                               //必须填刚才创建的自定义模型名
聊天渠道 / 技能配置    选择Skip for now 或 No 先跳过,后续可按需添加

配置成功后,终端会显示 Verification successful,并给出 Web 管理地址 (http://127.0.0.1:18789) 和你的管理员 Token(一串长代码)。请务必复制保存好 Token

启动与验证

1. 启动服务

# 启动 OpenClaw 网关
openclaw gateway start

# 或者如果你之前关闭了窗口,也可以直接运行
openclaw start

正常情况下,浏览器会自动弹出新页面。如果没有弹出,手动访问 http://127.0.0.1:18789/

2. 登录 Web 控制台

在网页中粘贴你之前保存的 Token,点击登录。
输入 “你好,介绍一下你自己”,如果模型开始回复,恭喜你,本地部署成功!

常用命令

openclaw logs follow 查看实时日志
openclaw gateway restart 重启openclaw网关
ollama list Ollama模型列表
openclaw configure --section model openclaw配置修改

Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser powershell执行策略修改解决无法加载脚本的情况

2 收藏 打赏
×
版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
文章名称:《养虾教程 本地Windows部署 OpenClaw + Ollama 保姆级教程》
文章链接:https://www.ediok.cn/blog/2026/03/6618.html
本站资源仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。
分享到

评论 抢沙发

评论前必须登录!

 

关注互联网发展前沿,关注PHPCMS技术演进,钻研PHPCMS技术开发

问答社区 联系我们
后退
Alt+←
前进
Alt+→
刷新
F5
无法复制?

登录

登录即表示同意本站用户协议隐私政策
©2026 周涛博客 All rights reserved

注册

注册即表示同意本站用户协议隐私政策
©2026 周涛博客 All rights reserved

觉得文章有用就打赏一下文章作者

非常感谢你的打赏,我们将继续给力更多优质内容,让我们一起创建更加美好的网络世界!

微信扫一扫

微信扫一扫