近日,由OpenClaw(曾用名ClawdBot)引发的技术热潮持续扩散,这一现象被不少人称为AI Agent的“ChatGPT时刻”。昨日,后摩智能一名工程师通过搭载后摩智能M50芯片的边缘计算盒子,在不到一天时间内完成了对OpenClaw的端侧部署与功能验证。
这一成果,直接印证了M50芯片在软硬件协同上的成熟度——其完善的工具链与稳定的系统支持,已具备赋能下一代前沿AI应用开发和部署的关键基础设施能力。
OpenClaw的理想与现实
OpenClaw能迅速走红,是因为它摆脱了传统AI“一问一答”的交互模式。从“被动等待”变为“主动执行”。当用户通过聊天应用发送指令,OpenClaw能够深入理解,并主动唤起后台大语言模型,在主机上运行一系列复杂任务。如删除广告邮件、预定餐厅、日程推送等。这一技术范式的转变,代表个人 AI 助手已从“对话工具”演变为真正的“生产力工具”。
值得一提的是,OpenClaw的核心突破在于具备“本地持久记忆”,能长久保存对话历史与上下文,并将个人数据存储在本地,通过调用上下文记忆来实现持续、连贯的个性化服务。这样既能保护用户隐私,又能通过手机发送指令远程控制主机完成任务。
不过,关于成本的困扰随之而来。有不少用户表示OpenClaw是“Token杀手”,OpenClaw依赖大语言模型 API 来运作,而 API 调用按照Token计费。伴随着加载上下文记忆,Token也会翻倍上涨。根据测算,100美元仅能维持20个小时的使用。每输入一句话即消耗上万Tokens。美国知名科技博主Federico Viticci测试OpenClaw一周即消耗1.8 亿个Token,其账单可能高达数百甚至上千美元。
高昂且持续的云端成本,成为OpenClaw当前让人望而却步的瓶颈。同时,上下文记忆涉及大量个人隐私与偏好数据,本地存储与处理的需求也变得前所未有的强烈。
M50的端侧破局之道
面对这一技术范式转变带来的核心问题,后摩智能提供基于M50芯片的端侧部署路径,可从成本、功耗和隐私三个维度给出针对性解决方案。
在成本上,将主要计算任务从云端转移至本地,海量的任务处理与Token消耗不再产生持续费用,具有显著的性价比优势。与云端服务“用得多,付得多”的持续计费模式不同,M50芯片代表的端侧方案属于一次性硬件投入。这意味着随着用户使用频率的增加和时间推移,其单次任务处理的边际成本持续下降,更适合需要长期、频繁调用AI助手的场景。
在功耗上,M50芯片功耗仅为10W,但能提供160TOPS算力,能够支持30B大模型25+Tokens的推理速度。其高能效比设计,天生适合低功耗、持续运行的边缘场景。相比需要GPU或持续高功耗运行的替代方案,基于M50芯片的设备能够以极低的电耗安静完成7×24小时值守,是承载“全天候待命”Agent的理想硬件基础。
在隐私上,敏感的任务历史、个人数据均存储于本地设备中,无需上传至云端,从物理层面减少了隐私泄露风险,让用户能够放心地将各类任务交付给Agent。
此外,在部署过程中,M50芯片展现出出色的通用平台适配性,支持OpenClaw在边缘设备上快速安装与运行,未出现兼容性问题。同时,后摩智能的应用开发套件提供标准化模型服务接口,仅需简易配置即可被OpenClaw调用,实现了“本地模型一秒上线”的敏捷部署体验。最终Demo运行流畅,直接验证了M50芯片在本地运行模型的良好性能、稳定性及兼容性,充分证明其能有力支撑以Agent为代表的新兴AI应用场景。
当AI应用走向深水区,原本被忽视的成本、功耗、隐私、实时性等问题逐渐暴露,高能效端侧算力的优势进一步凸显。此次快速部署成功,不仅验证了后摩智能的技术工程实力,更印证了M50芯片的低功耗设计、本地计算架构,精准契合了下一代AI应用向个性化、持久化方向演进时对底层硬件的关键需求。
目前,后摩智能M50芯片已进入量产阶段。随着市场对低成本、高隐私保障AI应用的需求持续增长,后摩智能将持续投入底层技术的迭代与优化,深化与行业伙伴的合作,推动M50芯片在更多实际场景中落地,助力AI技术走向普惠与可持续。
全部0条评论
快来发表一下你的评论吧 !