关闭

百易AI博客

当前位置: 首页 > AI大模型

OpenClaw让AI自动操作Excel和电脑 不用手动也能干活

OpenClaw让AI自动操作Excel和电脑 不用手动也能干活
OpenClaw 是一个本地操作代理,使 AI 能直接执行任务而非仅提供建议。它可像人类一样操作电脑,如打开 Excel、筛选数据、加粗并导出 PDF。OpenClaw 感知屏幕、操控输入、调用 API 并读写文件,实现从“动口”到“动手”的 AI 应用。

开源AI助手OpenClaw新版 本地运行支持30+平台

开源AI助手OpenClaw新版 本地运行支持30+平台
OpenClaw 新版本发布,强化本地运行与多平台接入能力。该开源 AI 助手完全在用户设备本地运行,支持接入 Claude、GPT 等远程模型及本地部署的 Llama 3、Qwen2 等大语言模型。新版可直接对接 WhatsApp、Telegram 等 30+ 平台,无需云中转。重点升级了企业级通讯工具链,对 Sla...

本地开源AI自动化 OpenClaw 无需API密钥

本地开源AI自动化 OpenClaw 无需API密钥
OpenClaw 是一个完全开源、纯本地运行的 AI 自动化框架,不依赖云端 API,支持 Claude、GPT 等远程模型及 Llama、Phi、Qwen 等本地模型。所有操作在用户设备上完成,无后台服务、遥测和强制联网。工作流用 YAML 定义,插件用 Python 编写,系统可审计、可复现且可嵌入任何私有环境。它...

OpenClaw号称最强大脑,实测安装卡死、漏洞频出

OpenClaw号称最强大脑,实测安装卡死、漏洞频出
OpenClaw号称“国产Claw生态中枢”,但实测本地部署问题频发。在Ubuntu 24.04上安装时,pip install命令卡死在pydantic-core编译阶段,导致CPU占用过高、系统响应缓慢,重试多次耗时长达3小时。此外,OpenClaw还存在权限漏洞。该平台虽宣称无缝集成AI模型,但实际依赖管理混乱,...

开源AI助手OpenClaw 跨平台自动干活

开源AI助手OpenClaw 跨平台自动干活
OpenClaw是一款开源个人AI助手,因其跨平台执行能力、本地化任务处理和API集成性受到关注。不同于依赖云端的通用大模型,OpenClaw强调“行动力”,能自动操作应用、解析文档并调用系统工具,提供实际解决方案。其跨平台能力在Windows、macOS和Linux上无缝衔接,将AI功能扩展至本地设备,确保高效、可靠...

OpenClaw来了:AI从只说不做 到真干活执行

OpenClaw来了:AI从只说不做 到真干活执行
OpenClaw 2026 旨在实现 AI 从生成到执行的跨越。当前 AI 如 ChatGPT 和 Claude 分别擅长生成和思考,但无法执行具体操作。OpenClaw 致力于将 AI 的推理结果转化为实际动作,如执行命令或调用 API,实现从文本输出到真实操作的转变,推动 AI 应用进入执行阶段。

OpenClaw开源AI自动化引擎:免云端、跨平台、低延迟任务编排

OpenClaw开源AI自动化引擎:免云端、跨平台、低延迟任务编排
OpenClaw是一款本地化、开源、跨平台的AI自动化引擎,支持Claude、GPT及本地模型,能在WhatsApp、Telegram、Discord等30多个应用中实现免云端、低延迟的任务编排与执行。其核心优势在于将AI能力与日常应用深度整合,通过本地化部署避免对云端服务的依赖,确保数据隐私和低延迟响应。OpenCl...

OpenClaw:新一代开源个人AI助手,注重行动力与跨平台部署

OpenClaw:新一代开源个人AI助手,注重行动力与跨平台部署
OpenClaw是新一代开源个人AI助手,区别于传统对话型AI,其核心定位是“行动力”,强调跨平台部署和任务执行能力,旨在成为用户的“行动助手”。其跨平台部署能力突出,支持多终端无缝衔接,涵盖Windows、macOS、Linux、Android和iOS等操作系统及多种硬件架构,为用户提供灵活便捷的AI服务,引发行业关...

AI工厂能帮电网调负荷 不用电池也能响应指令

AI工厂能帮电网调负荷 不用电池也能响应指令
电网面临“茶歇尖峰”等负荷波动挑战,AI工厂应运而生,将算力转化为可调度的电力资源。这些工厂无需存储电能或电池,却能实时吞吐功率,响应毫秒级指令,实现算力与电力的新平衡。通过底层硬件与调度系统的协同,AI工厂的GPU集群、液冷系统等均可被精细调控,实现类似调节水流般的连续变量控制,有效缓解电网压力,成为柔性调节的新主力

NVIDIA开源新驱动:K8s里GPU不再整卡分配

NVIDIA开源新驱动:K8s里GPU不再整卡分配
NVIDIA开源GPU动态资源分配驱动,集成Kubernetes生态,改写了GPU在K8s中的调度、隔离和复用逻辑。针对传统整卡分配模式导致的资源浪费、显存和算力绑定及设备插件限制等问题,该驱动实现了GPU资源的动态分配和复用,提升了资源利用率,解决了GPU在K8s中的三大痛点。