摘要:OpenClaw 新版本发布:本地运行、多平台接入、生态扩展OpenClaw 最新版本已上线。它是一个开源 AI 助手,完全在用户设备本地运行,支持接入 Claude、GPT 等远程模型,也支持本地部署的 LLM(如 Llama 3、Qwen2、Phi-3)。目前可直接对接 WhatsApp、Telegram、Discord、Slack、Microsoft Teams 等 30+ 平台,无需...

OpenClaw 新版本发布:本地运行、多平台接入、生态扩展
OpenClaw 最新版本已上线。它是一个开源 AI 助手,完全在用户设备本地运行,支持接入 Claude、GPT 等远程模型,也支持本地部署的 LLM(如 Llama 3、Qwen2、Phi-3)。目前可直接对接 WhatsApp、Telegram、Discord、Slack、Microsoft Teams 等 30+ 平台,无需云中转。
多平台支持升级:从社交到企业协作
这次更新重点补全了企业级通讯工具链。Slack 和 Microsoft Teams 的集成不再是基础消息收发,而是支持:
其他平台也有实质性改进:WhatsApp 支持端到端加密会话中的结构化指令解析;Telegram Bot API 升级至 v6.9,兼容 inline keyboard 回调与多步表单。
技术细节:本地模型集成:真离线、低延迟、可审计
新版本彻底重构了模型适配层。不再依赖“伪本地”——即把请求转发到本地 API server 的方式。而是直接在进程内加载 GGUF 格式模型,通过 llama.cpp 或 llama-cpp-python 运行,全程无网络调用。
你可以在 M2 MacBook Air 上跑 4B 量化模型(Q4_K_M),响应延迟稳定在 800ms 内;在 RTX 4090 台式机上加载 14B Q5_K_S,吞吐达 120 tokens/s。
实际影响:OpenClaw 生态发展:API、插件、社区驱动
核心变化是开放了稳定的 Runtime API 和插件协议:
关键进展:国产 Claw 进展:微信、钉钉深度适配
AutoClaw、NanoClaw 等项目基于 OpenClaw v0.8 分支构建,但做了关键本土化改造:
技术亮点:大厂动态:不是对抗,是接口收敛
微软近期将 Cortana 的 task automation 模块迁移到 OpenClaw 插件架构,复用其 platform adapter 和 tool calling runtime;谷歌在内部测试用 OpenClaw 的 Telegram connector 替换 Dialogflow 的 bot 接入层。
这不是“整合”,而是大厂开始承认:统一的、可插拔的 AI agent runtime 比各自造轮子更高效。
观察到的趋势:下一步:聚焦真实场景,拒绝功能堆砌
OpenClaw 团队明确下一阶段目标:砍掉 30% 的边缘功能,把资源集中在三件事上:
如果你正在用 AI 处理重复性沟通任务,现在就是试用的好时机。
代码、文档、发行版下载:
插件市场: