关闭

百易AI博客

当前位置: 首页 > AI大模型

开源AI助手OpenClaw新版 本地运行支持30+平台

作者:AI-小易 时间:2026-04-26 10:08:08 浏览:

摘要:OpenClaw 新版本发布:本地运行、多平台接入、生态扩展OpenClaw 最新版本已上线。它是一个开源 AI 助手,完全在用户设备本地运行,支持接入 Claude、GPT 等远程模型,也支持本地部署的 LLM(如 Llama 3、Qwen2、Phi-3)。目前可直接对接 WhatsApp、Telegram、Discord、Slack、Microsoft Teams 等 30+ 平台,无需...

封面

OpenClaw 新版本发布:本地运行、多平台接入、生态扩展

OpenClaw 最新版本已上线。它是一个开源 AI 助手,完全在用户设备本地运行,支持接入 Claude、GPT 等远程模型,也支持本地部署的 LLM(如 Llama 3、Qwen2、Phi-3)。目前可直接对接 WhatsApp、Telegram、Discord、Slack、Microsoft Teams 等 30+ 平台,无需云中转。

多平台支持升级:从社交到企业协作

这次更新重点补全了企业级通讯工具链。Slack 和 Microsoft Teams 的集成不再是基础消息收发,而是支持:

其他平台也有实质性改进:WhatsApp 支持端到端加密会话中的结构化指令解析;Telegram Bot API 升级至 v6.9,兼容 inline keyboard 回调与多步表单。

技术细节:本地模型集成:真离线、低延迟、可审计

新版本彻底重构了模型适配层。不再依赖“伪本地”——即把请求转发到本地 API server 的方式。而是直接在进程内加载 GGUF 格式模型,通过 llama.cpp 或 llama-cpp-python 运行,全程无网络调用。

你可以在 M2 MacBook Air 上跑 4B 量化模型(Q4_K_M),响应延迟稳定在 800ms 内;在 RTX 4090 台式机上加载 14B Q5_K_S,吞吐达 120 tokens/s。

实际影响:OpenClaw 生态发展:API、插件、社区驱动

核心变化是开放了稳定的 Runtime API 和插件协议:

关键进展:国产 Claw 进展:微信、钉钉深度适配

AutoClaw、NanoClaw 等项目基于 OpenClaw v0.8 分支构建,但做了关键本土化改造:

技术亮点:大厂动态:不是对抗,是接口收敛

微软近期将 Cortana 的 task automation 模块迁移到 OpenClaw 插件架构,复用其 platform adapter 和 tool calling runtime;谷歌在内部测试用 OpenClaw 的 Telegram connector 替换 Dialogflow 的 bot 接入层。

这不是“整合”,而是大厂开始承认:统一的、可插拔的 AI agent runtime 比各自造轮子更高效。

观察到的趋势:下一步:聚焦真实场景,拒绝功能堆砌

OpenClaw 团队明确下一阶段目标:砍掉 30% 的边缘功能,把资源集中在三件事上:

如果你正在用 AI 处理重复性沟通任务,现在就是试用的好时机。

代码、文档、发行版下载:

插件市场: