NVIDIA助力企业用AI创建数据飞轮

描述

在与 Snowflake 首席执行官的炉边谈话中,黄仁勋介绍了两家公司将如何帮助企业通过加速计算来处理数据,从而产生商业洞察。

NVIDIA 创始人兼首席执行官黄仁勋在 Snowflake 数据云峰会上向数千名与会者表示,AI 让每家公司都有机会将其流程转变为数据飞轮。

位于台北的黄仁勋与位于旧金山的 Snowflake 首席执行官 Sridhar Ramaswamy 进行了一场线上炉边谈话。黄仁勋在谈话中表示,企业需要“把所有最重要的流程整合到数据飞轮中,并将其转化为企业的 AI,以推动这个飞轮进一步发展”。

两位高管介绍了 Snowflake AI 数据云与 NVIDIA AI 的结合将如何简化并加速企业 AI。

在 COMPUTEX 大会开幕前发表主题演讲后的第二天,黄仁勋表示:“你要尽快搭上这趟列车,绝不要看着它从你身边飞驰而过,因为它将深入改变业务或者带你进入新的业务领域。”

Snowflake 用户可以即刻

使用 NVIDIA AI Enterprise

例如,企业将能够利用NVIDIA AI Enterprise软件平台中的NVIDIA NIM推理微服务,在数秒内部署以企业为中心的大语言模型(LLM)Snowflake Arctic。

Arctic 在NVIDIA Tensor Core GPU上训练而成,在 NVIDIA API 目录中提供,并由NVIDIA TensorRT-LLM(加速生成式 AI 推理的软件)全面支持。

两家公司还将整合 Snowflake Cortex AI 与NVIDIA NeMo Retriever,使企业用户可以打通 AI 驱动的应用与信息源,通过检索增强生成(RAG)获得更加精准的结果。

Ramaswamy 举出了几个使用 NVIDIA NeMo 框架和 Snowpark 容器服务开发的生成式 AI 应用示例。这些应用将在 Snowflake Marketplace 上提供,供数千家 Snowflake 客户使用。

Ramaswamy 表示:“NVIDIA 领先的加速计算为客户和我们自己的研究团队带来了翻天覆地的变化,利用这项技术我们为客户打造了最先进的 Artic 模型。”

如需更多信息,请观看 NVIDIA GTC 点播会议,了解 Snowflake 如何利用 RAG 架构构建聊天机器人以及如何将 LLM 用于生命科学领域。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分