Nullmax VLA算法深度赋能黑芝麻智能华山A2000芯片

描述

CES 2026期间,AI科技公司 Nullmax 成功完成端到端 VLA(Vision-Language-Action)算法在黑芝麻华山 A2000上的深度适配与验证。

随着大语言模型(LLM)与视觉大模型(VLM)的快速发展,Nullmax 将 VLA 范式引入智驾领域,旨在解决传统模块化方案在智能辅助驾驶系统应对长尾驾驶场景时的局限性。目前,Nullmax VLA 算法不仅涵盖了传统的环境感知能力,更赋予了系统类人般的语义理解、逻辑推理与解释性决策能力。该算法运行帧率达到 10 Hz,依托华山 A2000 的澎湃算力,可实时响应动态道路环境变化,满足实际驾驶对低延迟与高可靠性的要求。

此次部署的VLA算法由Nullmax全栈自研,不仅融合了视觉感知、文本语义、导航指令等多模态输入,还结合大语言模型实现了高阶推理能力。依托 Nullmax 在真实道路场景中积累的海量高质量数据,该模型可在多种复杂环境下输出合理规划,不仅提升了下游模块对环境语义和驾驶意图的理解能力,也为路径规划提供了更安全、合理的决策依据。

当前,Nullmax重点聚焦三大核心能力:文本类交通规则的语义理解、潜在风险的主动推理(即防御性驾驶),以及人类自然语言指令的交互理解,旨在大幅提升智能辅助驾驶方案在复杂、长尾场景下的处理能力,并清晰解释驾驶决策背后的逻辑,以提升智驾系统的透明度与用户信任感。

在复杂语义理解(文字类交通指引) 方面,Nullmax VLA算法相较于难以处理复杂语义指令的传统算法,实现了质的突破。该算法不仅能识别环境车辆、行人、交通标志,更能深度“读懂”如“直行车辆允许进入待行区”等复杂的文字提示。算法能够即时解析文字背后的语义指令,并结合实时路况,输出符合交通法规与场景逻辑的决策建议。

面对路口遮挡形成的视觉盲区,以及隧道出入口、强逆光等光线剧烈骤变带来的感知挑战,Nullmax VLA算法在防御性驾驶(盲区风险推演)和高鲁棒性感知(极端光线突变)上都取得了优异表现。该算法能综合分析天气状况、周边车辆动态及环境细微特征,凭借卓越的推理能力和强大的泛化能力,获得高度贴近人类驾驶员预判习惯的行为逻辑——不仅关注当前状态,更主动规避潜在风险,提前给出减速、预警等防御性策略,有效应对“鬼探头”等危险场景,显著提升行车安全性与乘坐舒适性。

Nullmax持续突破视觉感知上限,进展显著。未来,Nullmax将进一步携手合作伙伴,推动实现全球不限区域的全场景自动领航辅助驾驶,覆盖城市道路、结构化道路及停车场等多样化、碎片化的应用场景,为消费者提供更舒适连贯、安全高效的驾乘体验。

关于Nullmax

作为行业领先的人工智能科技公司,Nulmax2016年创立于美国硅谷,致力于打造全场景无人驾驶应用,引领移动出行智变。

Nullmax通过先进的计算机视觉和深度学习技术,打造了涵盖上层应用、中间件及云端数据系统的辅助驾驶全栈技术体系MAX,并构建了由数据平台、算法平台组成的基石架构。

基于MAx平台架构及新一代Nullma xIntelligence(Ni)端到端智驾技术,Nullmax推出了以视觉为主、多传感融合感知的MaxDrive平台化辅助驾驶方案,面向不同车型、不同场景功能需求,可全面覆盖高中低算力的不同芯片平台,支持任意传感器配置,具有可扩展、可移植、低成本、覆盖全球的优势。目前,Nulmax已与全球多家汽车厂商、一级供应商、芯片厂商建立了深入的量产合作,量产进程持续向前。 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分