NVIDIA DGX Spark为自主智能体提供全栈平台

描述

人工智能正在从基于提示的简单工具,转变为能够推理、规划和执行的智能、长期运行的系统。这些自主智能体不仅可以生成文本,还可以编写代码、调用工具、分析数据、模拟结果并持续改进。

要构建和运行具备超级计算智能的全天候智能体,开发者需要合适的基础设施。

将 NVIDIA DGX Spark 和 NVIDIA DGX Station 系统与全新 NVIDIA NemoClaw 开源栈搭配,为本地开发和部署自主长期运行的智能体,也就是 Claws,提供了终极平台。这些系统将 AI 工厂级的性能直接带到智能诞生之地——桌面端和企业内部。

使用 NemoClaw 保护代理式 AI 安全性

NVIDIA NemoClaw 是一个开源软件栈,可简化始终在线的 OpenClaw 助手的运行——既更安全,又只需单个命令即可完成。它会安装 NVIDIA OpenShell 运行时,该运行时是 NVIDIA Agent Toolkit 的一部分,后者是一个用于运行自主智能体的安全环境,同时也支持 NVIDIA Nemotron 等开源模型。

企业在专有工作流中部署自主智能体时,需要具备完善的治理、隔离和控制能力。OpenShell 定义了智能体如何访问数据、调用工具以及在策略边界内运行,为安全、全天候运行的 AI 系统提供了架构基础。

自进化智能体在自主完成任务的同时,需要专用计算资源来构建工具和软件。DGX Spark 和 DGX Station 是运行 NemoClaw 的理想环境,可用于在本地利用 OpenClaw 构建和验证智能体,随后再扩展至数据中心 AI 工厂。

DGX Spark:适用于企业团队的可扩展 AI

如果说 DGX Station 是功能强大的桌面 AI 系统,那么 DGX Spark 则为企业各职能的团队提供可扩展的 AI 基础设施。

DGX Spark 具有大容量本地内存、强劲性能以及与 NemoClaw 的集成,是开发和部署自主智能体的理想选择。

DGX Spark 现已支持将多达四台系统集群化为统一的配置,创建具有线性性能扩展的紧凑型“桌面数据中心”,而无需面对传统机架部署的复杂性。

即将为 DGX Spark 发布的软件版本预计将进一步增强编排和可管理性,实现更快的迭代和从原型到生产的更平滑过渡。

DGX Spark 支持最新 AI 模型,包括 NVIDIA Nemotron 3 和领先的开放模型,确保开发者能在现代化、持续演进的 AI 软件堆栈上进行构建。

各行各业的组织正在将 DGX Spark 从评估环境转向积极的企业部署。金融机构正在加速风险建模。医疗健康研究人员正在缩短研发周期。能源公司正不断优化运营。媒体和电信团队正在构建实时内容和通信工作流。

DGX Station:桌面上的数据中心级 AI

NVIDIA DGX Station 是功能强大的桌面超级计算机,已为长思考与自主思考的全新阶段做好了准备。

DGX Station 搭载 NVIDIA Grace Blackwell Ultra 台式机超级芯片,提供 748GB 的一致性内存和高达 20 petaflops 的 AI 计算性能。它通过 NVIDIA NVLink-C2C 将一个 72 核 NVIDIA Grace CPU 和 NVIDIA Blackwell Ultra GPU 连接起来,构建了一个专为前沿 AI 工作负载打造的统一高带宽架构。

它使开发者能够在桌面运行高达一万亿参数的开放模型,并开发具有长期思考能力的自主智能体。

DGX Station 可作为个人 AI 超级计算机或团队共享的按需计算节点。它支持隔离配置,非常适合受监管的行业和主权环境。本地开发的应用无需重新架构,即可无缝迁移到数据中心或云端的 NVIDIA Grace Blackwell Ultra 机架级系统。

行业领导者已经开始利用 DGX Station 来加速现实世界的创新,Snowflake 正在使用 DGX Station 在本地测试其开源 Arctic 训练框架;EPRI 正在使用和测试 DGX Station 以推进 AI 驱动的天气预报,从而提高电网可靠性;Medivis 正在将视觉语言模型与 DGX Station 集成到手术工作流中;成均馆大学正在使用该系统来加速蛋白质结构分析;微软研究院和康奈尔大学正在利用 DGX Station 大规模开展 AI 实践培训;Respo.Vision、WSP 和 1X 正在部署用于高级体育分析、合成数据训练、自主智能体和人形机器人的 AI。

统一架构:从桌面到 AI 工厂

DGX Station 和 DGX Spark 预配置 NVIDIA AI 软件堆栈,使开发者能够使用熟悉的工具,在本地开发和大型基础设施之间无缝切换。

开发者可以在 DGX Station 上运行和微调先进的模型,包括 OpenAI [gpt-oss-120b]、Google Gemma 3、Qwen3、Kimi K2.5、Mistral Large 3、DeepSeek V3.2 和 NVIDIA Nemotron,并利用来自各种熟悉工具和平台, 如 1x ,Aible AI,Anaconda、Docker、红帽、JetBrains、Docker、Ollama、llama.cpp、ComfyUI、LM Studio、Llm.c、Weights and Biases (由 CoreWeave 收购)、Odyssey、Roboflow、VLLM、SGLang、Unsloth、Learning Machine、Quali、Lightning AI 等。

通过将芯片、系统、网络和软件整合为统一的架构中,NVIDIA 使企业能够实现“一次构建,随处扩展”——从桌面 DGX Station 到多节点 DGX Spark 集群,再到完整的 AI 工厂,均能够部署。

如需了解有关 DGX Spark 的更多信息,敬请关注 NVIDIA GTC 大会。欢迎参加有关可扩展自主智能体和 AI 基础设施的会议,在展厅中观看支持 NemoClaw 的 AI 智能体和多节点 Spark 演示,或访问 nvidia.cn/dgx-spark 获取部署指南和测试版资源。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分