准备工作(硬件、软件与环境)
在开始敲命令前,建议先检查一下你的电脑装备,这决定了后续流程是否顺畅。
1. 硬件要求
本地运行AI模型对配置有一定要求,特别是显卡。
显卡(GPU):
推荐配置:NVIDIA 显卡,显存 ≥ 8GB(如 RTX 3060/4060 及以上),可流畅运行 7B~14B 模型 。
丐版配置:显存 4GB,可运行 Qwen2.5:4b 等轻量模型 。
无显卡:纯CPU模式也能跑,但速度会比较慢,适合简单尝鲜 。
内存:建议 ≥ 16GB(如果运行14B大模型,建议32GB) 。
硬盘:建议预留 20GB 以上的空闲空间(最好装在SSD固态硬盘里) 。
2. 软件要求
系统:Windows 10/11 64位(本文基于 Windows 11 22H2) 。
终端:PowerShell(必须以管理员身份运行)。
Node.js:版本必须 ≥ 18.0.0,强烈推荐 v22.x LTS 。
Git:可选,但安装插件时可能用到 。
3. 环境检查与 Node.js 安装
以管理员身份打开 PowerShell,输入以下命令检查:
# 检查Node.js版本,若未安装或版本过低,需安装或升级
node --version
# 检查npm版本
npm --version
如果版本低于要求,建议使用 nvm-windows 来安装管理 Node.js 版本:
# 1. 安装 nvm(需手动去GitHub下载安装包:https://github.com/coreybutler/nvm-windows/releases)
# 2. 安装完成后,在管理员 PowerShell 中安装 Node.js 22 版本
nvm install 22
# 3. 使用该版本
nvm use 22.22.0
# 4. 配置 npm 国内镜像源(加速后续下载)
npm config set registry https://registry.npmmirror.com
或者直接官网构建https://nodejs.org/zh-cn/download
部署“大脑”——Ollama 与本地模型
Ollama 负责管理和运行大模型,它是 OpenClaw 的“大脑”。
1. 安装 Ollama
去 Ollama 官网https://ollama.com/ 下载 Windows 版本,双击安装即可。安装后 Ollama 会自动在后台运行。
验证安装:
ollama --version
拉取基础模型(以通义千问为例)
推荐使用国产的 Qwen 系列,中文理解能力强,适配性好 。根据你的显存选择其一:
# 7B模型(约4.7GB,显存≥8GB推荐)
ollama pull qwen2.5:7b
# 或者 4B轻量版(约2.9GB,显存4GB可选)
# ollama pull qwen2.5:4b
核心定制:扩展上下文窗口
OpenClaw 要求模型上下文窗口至少 16000 tokens,而 Ollama 拉取的模型默认只有 4096,因此必须手动定制 。
操作步骤:
在管理员 PowerShell 中逐行执行:
# 1. 切换到你的用户目录(请将 <你的用户名> 替换成你实际的用户名,如 Administrator)
cd C:\Users\<你的用户名>
# 2. 创建模型配置文件 Modelfile,设置上下文窗口为 32768
@"FROM qwen2.5:7b
PARAMETER num_ctx 32768"@ | Out-File -Encoding ascii Modelfile
# 3. 基于该配置创建新模型(命名为 qwen2.5:7b-32k)
ollama create qwen2.5:7b-32k -f Modelfile
# 4. 验证新模型是否创建成功
ollama list
部署“躯干”——OpenClaw 安装与对接
1. 安装 OpenClaw
在管理员 PowerShell 中执行:
# 全局安装 openclaw
npm install -g openclaw
# 验证安装
openclaw --version
如果遇到权限错误,可以尝试 npm install -g openclaw --unsafe-perm
2. 配置 OpenClaw 对接本地 Ollama
执行配置向导:
openclaw onboard
接下来会进入交互界面,请按照下表严格填写 :
Model/auth provider 选择 Custom Provider //选择自定义模型提供商
API Base URL 输入http://127.0.0.1:11434/v1 //Ollama默认的 API 地址
API Key 输入ollama (或任意字符,不要留空) //Ollama 本地不校验 Key,但必须填
Endpoint compatibility 选择 OpenAI-compatible //选择兼容模式
Model ID 输入qwen2.5:7b-32k //必须填刚才创建的自定义模型名
聊天渠道 / 技能配置 选择Skip for now 或 No 先跳过,后续可按需添加
配置成功后,终端会显示 Verification successful,并给出 Web 管理地址 (http://127.0.0.1:18789) 和你的管理员 Token(一串长代码)。请务必复制保存好 Token
启动与验证
1. 启动服务
# 启动 OpenClaw 网关
openclaw gateway start
# 或者如果你之前关闭了窗口,也可以直接运行
openclaw start
正常情况下,浏览器会自动弹出新页面。如果没有弹出,手动访问 http://127.0.0.1:18789/
2. 登录 Web 控制台
在网页中粘贴你之前保存的 Token,点击登录。
输入 “你好,介绍一下你自己”,如果模型开始回复,恭喜你,本地部署成功!
常用命令
openclaw logs follow 查看实时日志
openclaw gateway restart 重启openclaw网关
ollama list Ollama模型列表
openclaw configure --section model openclaw配置修改
Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser powershell执行策略修改解决无法加载脚本的情况
周涛博客








评论前必须登录!
注册