关闭

百易AI博客

当前位置: 首页 > AI知识库

OpenClaw新手指南:本地AI自动化框架使用及模型接入方法

作者:AI-小易 时间:2026-04-18 17:52:45 浏览:

摘要:OpenClaw 新手指南:本地 AI 自动化怎么跑起来什么是 OpenClaw?OpenClaw 是一个开源的、可本地运行的 AI 自动化框架。它不依赖云服务,所有数据和推理都在你自己的机器上完成。支持 WhatsApp、Telegram、Discord、Slack、Facebook Messenger 等 30+ 平台,能统一配置、多端同步执行任务。它不绑定特定模型:Claude、GPT...

封面

OpenClaw 新手指南:本地 AI 自动化怎么跑起来什么是 OpenClaw?

OpenClaw 是一个开源的、可本地运行的 AI 自动化框架。它不依赖云服务,所有数据和推理都在你自己的机器上完成。支持 WhatsApp、Telegram、Discord、Slack、Facebook Messenger 等 30+ 平台,能统一配置、多端同步执行任务。

它不绑定特定模型:Claude、GPT-3.5/4(通过 API)、Ollama 托管的本地模型(如 Llama 3、Qwen2)、甚至 Hugging Face 上的 Transformers 模型都能接入。调度逻辑写在 YAML 里,模型切换只需改几行配置。

本地化部署

没有后台服务,没有数据上传。消息解析、意图识别、回复生成全部在本地完成。你控制输入,也控制输出——不需要为隐私或延迟妥协。

跨平台任务编排

你写一个任务,它就能在多个平台生效。比如:

多模型调度

OpenClaw 把模型当“插件”用。你在 config.yaml 里声明可用模型,任务里指定用哪个:

models:
  default: "ollama:qwen2:7b"
  available:
    - "ollama:llama3:8b"
    - "openai:gpt-4o"
    - "anthropic:claude-3-haiku-20240307"

任务中可以硬编码模型名,也可以用条件路由(比如短文本走本地小模型,长文档走 GPT-4o)。

安装与配置1. 基础环境

确保系统满足:

️ 注意:OpenClaw 本身不带大模型。调用本地模型需提前安装 Ollama 或 vLLM;调用 API 模型需准备对应密钥。2. 克隆代码

git clone https://github.com/yourusername/OpenClaw.git
cd OpenClaw

别用 ZIP 下载——后续更新、切分支、提 PR 都会卡住。

3. 安装依赖

pip install -r requirements.txt

依赖包含:

4. 配置平台与模型

编辑 config/config.yaml:

platforms:
  telegram:
    token: "654321:ABC-DEF1234ghIkl-zyx57W2v1u123ew11"
    webhook_url: "https://your-domain.com/webhook/telegram"
  whatsapp:
    phone_id: "1234567890"
    verify_token: "my-secret-token"
    access_token: "EAAG..."
models:
  default: "ollama:qwen2:7b"
  openai:
    api_key: "sk-..."
    base_url: "https://api.openai.com/v1"
  anthropic:
    api_key: "sk-ant-..."

5. 启动

python main.py

启动后你会看到类似输出:

 Loaded 2 platforms: telegram, whatsapp
 Loaded 3 models: ollama:qwen2:7b, openai:gpt-4o, anthropic:claude-3-haiku
 Listening on http://localhost:8000