摘要:OpenClaw 新手指南:本地 AI 自动化怎么跑起来什么是 OpenClaw?OpenClaw 是一个开源的、可本地运行的 AI 自动化框架。它不依赖云服务,所有数据和推理都在你自己的机器上完成。支持 WhatsApp、Telegram、Discord、Slack、Facebook Messenger 等 30+ 平台,能统一配置、多端同步执行任务。它不绑定特定模型:Claude、GPT...

OpenClaw 新手指南:本地 AI 自动化怎么跑起来什么是 OpenClaw?
OpenClaw 是一个开源的、可本地运行的 AI 自动化框架。它不依赖云服务,所有数据和推理都在你自己的机器上完成。支持 WhatsApp、Telegram、Discord、Slack、Facebook Messenger 等 30+ 平台,能统一配置、多端同步执行任务。
它不绑定特定模型:Claude、GPT-3.5/4(通过 API)、Ollama 托管的本地模型(如 Llama 3、Qwen2)、甚至 Hugging Face 上的 Transformers 模型都能接入。调度逻辑写在 YAML 里,模型切换只需改几行配置。
本地化部署
没有后台服务,没有数据上传。消息解析、意图识别、回复生成全部在本地完成。你控制输入,也控制输出——不需要为隐私或延迟妥协。
跨平台任务编排
你写一个任务,它就能在多个平台生效。比如:
多模型调度
OpenClaw 把模型当“插件”用。你在 config.yaml 里声明可用模型,任务里指定用哪个:
models:
default: "ollama:qwen2:7b"
available:
- "ollama:llama3:8b"
- "openai:gpt-4o"
- "anthropic:claude-3-haiku-20240307"
任务中可以硬编码模型名,也可以用条件路由(比如短文本走本地小模型,长文档走 GPT-4o)。
安装与配置1. 基础环境
确保系统满足:
️ 注意:OpenClaw 本身不带大模型。调用本地模型需提前安装 Ollama 或 vLLM;调用 API 模型需准备对应密钥。2. 克隆代码
git clone https://github.com/yourusername/OpenClaw.git
cd OpenClaw
别用 ZIP 下载——后续更新、切分支、提 PR 都会卡住。
3. 安装依赖
pip install -r requirements.txt
依赖包含:
4. 配置平台与模型
编辑 config/config.yaml:
platforms:
telegram:
token: "654321:ABC-DEF1234ghIkl-zyx57W2v1u123ew11"
webhook_url: "https://your-domain.com/webhook/telegram"
whatsapp:
phone_id: "1234567890"
verify_token: "my-secret-token"
access_token: "EAAG..."
models:
default: "ollama:qwen2:7b"
openai:
api_key: "sk-..."
base_url: "https://api.openai.com/v1"
anthropic:
api_key: "sk-ant-..."
5. 启动
python main.py
启动后你会看到类似输出:
Loaded 2 platforms: telegram, whatsapp
Loaded 3 models: ollama:qwen2:7b, openai:gpt-4o, anthropic:claude-3-haiku
Listening on http://localhost:8000