前言
OpenClaw 是一款功能强大的集成化网关工具,适用于消息通道管理、插件扩展及服务部署。本文将详细讲解在 Windows 10(含 LTSC 版本)系统中安装 OpenClaw 的完整流程,涵盖系统依赖准备、服务配置、插件安装及常见问题排查,确保你在 Win10 LTSC 环境下也能零障碍完成安装。 一、安装前准备:配置系统必要依赖
OpenClaw 的正常运行依赖于若干基础工具。请按顺序完成以下组件的安装,Win10 LTSC 用户需特别注意某些组件需手动下载。 1. 安装 Node.js
- 下载地址:Node.js 官网
- 版本选择:请下载 LTS 长期支持版(推荐 22.x 或 24.x,兼容性最佳),选择 Windows 64 位安装包。
- 安装步骤:
- 双击安装包,务必勾选 「Add to PATH」(自动添加至系统环境变量),其余选项保持默认,一路下一步完成安装。
- 验证安装:按下 Win + R,输入 cmd 打开命令提示符,执行以下命令检查版本:
若显示版本号,则表示安装成功。
2. 安装 Git
- 下载地址:Git 官网
- 版本选择:下载 Windows 64 位安装包(Win10 LTSC 直接选默认版本即可)。
- 安装步骤:
- 安装过程中保持默认选项,但请确保 「Git Bash Here」 和 「Add Git to PATH」 被勾选。
- 验证安装:在命令提示符中执行:
显示版本号即成功。 3. 安装 Visual C++ Redistributable
Win10 LTSC 系统可能缺失必要的 Visual C++ 运行库,需手动安装: 4. 安装 CMake(可选,仅源码编译时需要)
如果你计划从源码编译 OpenClaw,则需安装 CMake 并配置环境变量: - 下载地址:CMake 官网
- 版本选择:选择 Windows x64 Installer。
- 安装步骤:
- 安装时勾选 「Add CMake to the system PATH for all users」。
- 验证安装:在命令提示符中执行:
显示版本号即配置成功。 二、配置 PowerShell 执行权限(关键!Win10 LTSC 必做)
Windows 10 默认限制 PowerShell 脚本执行,若未解除限制,一键安装脚本将无法运行。请按以下步骤操作: - 以管理员身份打开 PowerShell:
按下 Win + X,选择 「Windows PowerShell (管理员)」。 - 依次执行以下两条命令:
- # 为当前用户设置执行策略为 RemoteSigned(允许本地脚本运行)
- Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
- # 临时为当前进程解除所有执行限制(避免脚本被拦截)
- Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass
复制代码
三、配置 npm 镜像(大幅提升下载速度)
国内访问 npm 官方源速度较慢,建议切换至淘宝镜像源:
- # 设置 npm 镜像为淘宝源
- npm config set registry https://registry.npmmirror.com/
- # 查看配置是否生效
- npm config list
复制代码
若输出中包含 registry = "https://registry.npmmirror.com/",则配置成功。 四、一键安装 OpenClaw 核心程序
完成以上准备后,即可执行 OpenClaw 官方提供的一键安装脚本(适用于 Win10 及 Win10 LTSC):
- iwr -useb https://openclaw.ai/install.ps1 | iex
复制代码
等待脚本自动运行,期间将自动下载并安装 OpenClaw 核心组件,无需手动干预。 1.初次安装完快速上手 步骤 1:确认「个人使用」提示 - I understand this is personal-by-default and shared/multi-user use requires lock-down. Continue?
- | Yes
- | No
复制代码- 选择:直接输入 Yes(或按回车,默认选 Yes)
- 原因:确认你知晓使用权限规则,必须选 Yes 才能进入下一步配置。
步骤 2:选择引导模式
- Onboarding mode
- | > QuickStart (Configure details later via openclaw configure.)
- | Manual
复制代码 新手首选:直接按回车选 QuickStart(快速启动模式)
✅ 优势:跳过复杂的初始配置,先启动服务,后续通过命令 / 网页控制台补配(比如 API Key、渠道对接),避免新手因参数填错导致启动失败。
如果选 Manual(手动全配):往下看「Manual 模式完整配置步骤」。
步骤 3:核心选择逻辑(新手优先)
- * Model/auth provider
- | > OpenAI (Codex OAuth + API key)
- | Anthropic
- | Chutes
- | MiniMax
- | Moonshot AI (Kimi K2.5)
- | Google
- | xAI (Grok)
- | Mistral AI
- | Volcano Engine
- | BytePlus
- | OpenRouter
- | Kilo Gateway
- | Qwen
- | Z.AI
- | Qianfan
- | Alibaba Cloud Model Studio
- | Copilot
- | Vercel AI Gateway
- | OpenCode
- | Xiaomi
- | Synthetic
- | Together AI
- | Hugging Face
- | Venice AI
- | LiteLLM
- | Cloudflare AI Gateway
- | Custom Provider
- | Ollama
- | SGLang
- | vLLM
- | Skip for now
复制代码
新手 / 暂时没有任何 AI 模型 API Key(推荐)
选择:Skip for now
- 操作:在选项列表中找到 Skip for now(通常在列表最后),输入这个选项名称(或按方向键选中后回车)。
- 原因:
- 跳过模型配置不会影响 OpenClaw 核心服务启动,只是暂时无法调用 AI 能力(但网关、网页控制台仍能正常运行);
- 后续可随时通过命令 / 网页控制台补充配置,无需重新走引导流程;
- 避免新手因「无 API Key 却强行选择提供商」导致配置报错,甚至服务启动失败。
- 后续补充配置:启动服务后,执行 openclaw configure 重新进入模型配置,或直接在网页控制台(127.0.0.1:18789)的「模型设置」里配置。
步骤 4:核心选择逻辑(新手优先)
- Filter models by provider
- | > All providers
- | amazon-bedrock
- | anthropic
- | azure-openai-responses
- | cerebras
- | github-copilot
- | google
- | google-antigravity
- | google-gemini-cli
- | google-vertex
- | groq
- | huggingface
- | kimi-coding
- | minimax
- | minimax-cn
- | mistral
- | openai
- | openai-codex
- | opencode
- | opencode-go
- | openrouter
- | vercel-ai-gateway
- | xai
- | zai
复制代码 新手 / 不确定具体模型(推荐)
选择:All providers
- 操作:直接按回车选中默认的 All providers(无需手动选其他)。
- 原因:
- 「All providers」会加载所选主提供商下所有可用的模型(比如选了 OpenAI 主提供商,会显示 gpt-3.5-turbo、gpt-4、gpt-4o 等全部模型),新手无需纠结细分项;
- 避免因选错细分项导致「无模型可选」(比如误选 openai-codex 仅显示代码模型,漏掉通用对话模型);
- 后续可在网页控制台自由切换模型,无需在命令行纠结。
- 后续:选完后终端会列出该提供商下所有模型,直接回车选默认模型(如 gpt-3.5-turbo)即可。
步骤 5:推荐选择(新手必选)
- * Default model
- | > Keep current (default: anthropic/claude-opus-4-6)
- | Enter model manually
- | amazon-bedrock/anthropic.claude-3-haiku-20240307-v1:0
- | amazon-bedrock/anthropic.claude-3-5-haiku-20241022-v1:0
- | amazon-bedrock/anthropic.claude-haiku-4-5-20251001-v1:0
- | amazon-bedrock/eu.anthropic.claude-haiku-4-5-20251001-v1:0
- | amazon-bedrock/global.anthropic.claude-haiku-4-5-20251001-v1:0
- | amazon-bedrock/us.anthropic.claude-haiku-4-5-20251001-v1:0
- | amazon-bedrock/anthropic.claude-opus-4-20250514-v1:0
- | amazon-bedrock/us.anthropic.claude-opus-4-20250514-v1:0
- | amazon-bedrock/anthropic.claude-opus-4-1-20250805-v1:0
- | amazon-bedrock/us.anthropic.claude-opus-4-1-20250805-v1:0
- | amazon-bedrock/anthropic.claude-opus-4-5-20251101-v1:0
- | amazon-bedrock/eu.anthropic.claude-opus-4-5-20251101-v1:0
- | amazon-bedrock/global.anthropic.claude-opus-4-5-20251101-v1:0
- | amazon-bedrock/us.anthropic.claude-opus-4-5-20251101-v1:0
- | amazon-bedrock/anthropic.claude-opus-4-6-v1
- | amazon-bedrock/eu.anthropic.claude-opus-4-6-v1
- | amazon-bedrock/global.anthropic.claude-opus-4-6-v1
- | amazon-bedrock/us.anthropic.claude-opus-4-6-v1
- | amazon-bedrock/anthropic.claude-3-5-sonnet-20240620-v1:0
- | amazon-bedrock/anthropic.claude-3-5-sonnet-20241022-v2:0
- | amazon-bedrock/anthropic.claude-3-7-sonnet-20250219-v1:0
- | amazon-bedrock/anthropic.claude-sonnet-4-20250514-v1:0
- | amazon-bedrock/eu.anthropic.claude-sonnet-4-20250514-v1:0
- | amazon-bedrock/global.anthropic.claude-sonnet-4-20250514-v1:0
- | amazon-bedrock/us.anthropic.claude-sonnet-4-20250514-v1:0
- | amazon-bedrock/anthropic.claude-sonnet-4-5-20250929-v1:0
- | amazon-bedrock/eu.anthropic.claude-sonnet-4-5-20250929-v1:0
- | amazon-bedrock/global.anthropic.claude-sonnet-4-5-20250929-v1:0
- | amazon-bedrock/us.anthropic.claude-sonnet-4-5-20250929-v1:0
- | amazon-bedrock/anthropic.claude-sonnet-4-6
- | amazon-bedrock/eu.anthropic.claude-sonnet-4-6
- | amazon-bedrock/global.anthropic.claude-sonnet-4-6
- | amazon-bedrock/us.anthropic.claude-sonnet-4-6
- | amazon-bedrock/deepseek.r1-v1:0
- | amazon-bedrock/deepseek.v3-v1:0
- | amazon-bedrock/deepseek.v3.2
- | amazon-bedrock/mistral.devstral-2-123b
- | amazon-bedrock/google.gemma-3-4b-it
- | amazon-bedrock/zai.glm-4.7
- | amazon-bedrock/zai.glm-4.7-flash
- | amazon-bedrock/google.gemma-3-27b-it
- | amazon-bedrock/openai.gpt-oss-safeguard-120b
- | ...
复制代码 Keep current (default: anthropic/claude-opus-4-6)
直接回车 用默认模型即可。
为什么选这个?
- 这是当前 OpenClaw 自动给你推荐的默认模型,兼容性最好
- 不用你手动输入、不用纠结版本、不会配置错
- 后面想换模型随时能改,不用在这里卡死
步骤 6:网络搜索选择
- Search provider
- | > Brave Search (Structured results · country/language/time filters)
- | Gemini (Google Search)
- | Grok (xAI)
- | Kimi (Moonshot)
- | Perplexity Search
- | Skip for now
复制代码
Skip for now
直接回车跳过。
为什么选 Skip for now?
- 这一步是配置联网搜索能力(让 AI 能查最新信息)
- 你现在没有这些服务商的 API Key,选了也用不了
- 跳过完全不影响 OpenClaw 主程序启动
- 后面想加搜索功能,再去网页后台配置就行
步骤 7:选择WEB UI打开 完成
五、基础配置与启动
1. 启动 Gateway 服务
- # 启动 OpenClaw Gateway 核心服务
- openclaw gateway start
复制代码
2. 初始化配置向导
首次安装建议执行重置并运行配置向导:
- # 重置 onboard 配置(首次安装推荐)
- openclaw onboard --reset
- # 仅运行配置向导(如已重置或需修改配置)
- openclaw onboard
复制代码
3. 查看 Gateway 状态
- # 检查 Gateway 服务是否正常运行
- openclaw gateway status
复制代码
若输出 Running 表示服务启动成功;若为 Stopped,请检查依赖安装是否完整。 4. 打开可视化控制面板
- # 启动 OpenClaw 控制面板(自动打开浏览器)
- openclaw dashboard
复制代码
执行后浏览器将自动打开,进入 OpenClaw 图形化管理界面。 六、进阶配置:安装系统服务与扩展插件
1. 安装系统服务(实现开机自启)
Win10 LTSC 推荐将 OpenClaw 安装为系统服务,免去每次手动启动的麻烦:
- # 完整安装向导并配置为系统服务(开机自启)
- openclaw onboard --install-daemon
复制代码
2. 添加消息通道
- # 新增自定义消息通道
- openclaw channels add
复制代码
根据提示输入通道名称、类型及配置信息即可完成添加。 3. 安装插件(以企业微信插件为例)
OpenClaw 支持丰富的插件扩展,例如安装企业微信插件:
- # 安装企业微信插件
- openclaw plugins install @wecom/wecom-openclaw-plugin
复制代码
七、常见问题排查(Win10 LTSC 专属)
- PowerShell 执行脚本提示权限不足
- 请确保已按“第二部分”以管理员身份运行 PowerShell,并正确执行了 Set-ExecutionPolicy RemoteSigned 和 Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass。
- npm 命令找不到
- 检查 Node.js 安装时是否勾选了 「Add to PATH」。若未勾选,请手动将 Node.js 安装目录(例如 C:\Program Files\nodejs)添加到系统环境变量 Path 中。
- Gateway 启动失败
- 确认 Visual C++ Redistributable 已安装且为最新版本(x64)。
- 检查 Node.js 版本是否为 16.x 或 18.x,过高版本可能存在兼容性问题。
总结
- 核心准备:安装 Node.js、Git、Visual C++ 运行库,并正确配置 PowerShell 执行权限(Win10 LTSC 必须执行的两条命令)。
- 安装流程:配置 npm 镜像 → 执行一键安装脚本 → 启动 Gateway 并完成初始化向导。
- 进阶建议:安装为系统服务实现开机自启,按需添加消息通道和插件。
- 特别提醒:Win10 LTSC 用户需重点检查运行库安装和权限配置,其余步骤与标准 Win10 一致。
|