OpenClaw 是一个开源的命令行工具,能够帮助开发者更高效地管理和部署 AI 模型。本文将详细介绍如何在 Windows Subsystem for Linux(WSL)环境中安装和配置 OpenClaw,让你在 Windows 系统上也能享受 Linux 的开发便利。

前几天写了一篇基于 unix 终端的 OpenClaw 安装指南,OpenClaw 安装完整教程以及国内大模型配置指南。不少小伙伴后台问我 Windows 怎么安装 OpenClaw,今天我来写一篇教程。

准备工作:启用 WSL2

首先,确保你的 Windows 系统已启用 WSL2。如果没有安装,可以参考这篇文章:Windows 10/11 WSL2 安装与配置指南

安装 OpenClaw

打开 ubuntu 终端,使用官方一键安装脚本

curl -fsSL https://openclaw.ai/install.sh | bash

安装完成后,启动交互式设置向导:

openclaw onboard --install-daemon

f4ee68d5-1030-4a4b-8d0a-a649739a788a.webp

向导会引导你完成以下配置,可以选择默认配置项,然后选择 AI 模型提供商:支持 OpenAI、Anthropic、Google Gemini 等主流平台,我们这里选择 kimi,通讯工具直接跳过,待会再来配置即可。

配置完向导之后,我们直接输入下面命令。

openclaw gateway run --port 18789

然后就可以通过浏览器来访问 openclaw 的可视化面板了。

http://localhost:18789

我们在聊天窗口输入,“你是什么模型”?可以看到回复就算配置成功。

afbbf495-40ba-4465-bbd1-683054ee1b6b.webp

多模型支持

OpenClaw 支持同时配置多个 AI 模型。编辑配置文件 ~/.openclaw/config.yaml

models:
- name: "gpt-4"
provider: "openai"
api_key: "${OPENAI_API_KEY}"
- name: "claude-3"
provider: "anthropic"
api_key: "${ANTHROPIC_API_KEY}"

总结

通过以上步骤,你已成功在 WSL 环境中安装了 OpenClaw。这个工具不仅能帮助你更高效地使用各种 AI 模型,还能通过自动化工作流提升开发效率。OpenClaw 的模块化设计让你可以根据需求灵活配置,无论是个人项目还是团队协作都能游刃有余。

今天比较晚了,等周末我再抽空写一下如何配置通讯工具来实现聊天交互,实现远程AI操作你的电脑。