NVIDIA 与 Hugging Face 将连接数百万开发者与生成式 AI 超级计算

人工智能

636人已加入

描述

NVIDIA DGX Cloud 集成到 Hugging Face 平台将加速大语言模型(LLM)的训练和调优,简化了几乎每个行业的模型定制
 
AI
 
洛杉矶 — SIGGRAPH — 2023 8 8 NVIDIA 与 Hugging Face 宣布建立合作伙伴关系,为数百万开发者提供生成式 AI 超级计算服务,帮助他们构建大语言模型(LLM)和其他高级 AI 应用。
 
此次合作将使开发者能够使用 Hugging Face 平台内的 NVIDIA DGX™ Cloud AI 超级计算为高级 AI 模型进行训练及调优,借助为智能聊天机器人、搜索、摘要等特定行业应用的业务数据定制的大语言模型(LLM),推动生成式 AI 在各个行业中的应用。
 
NVIDIA 创始人兼首席执行官黄仁勋表示:“研究人员和开发者是正在改变每个行业的生成式 AI 的核心力量。Hugging Face 与 NVIDIA 正在将全球最大的 AI 社区与 NVIDIA 在全球领先云环境中的 AI 计算平台相连接。通过双方的合作,Hugging Face 社区用户只需要点击一下鼠标,就可以使用 NVIDIA AI 计算。”
 
作为合作的一部分,Hugging Face 将提供一项名为“训练集群即服务(Training Cluster as a Service)”的新服务,用以简化企业创建新的自定义生成式 AI 模型的过程。该服务由 NVIDIA DGX Cloud 提供支持,将在未来几个月内推出。
 
Hugging Face 联合创始人兼首席执行官 Clément Delangue 表示:“世界各地的人们正在利用生成式 AI 工具建立新的联系,进行新的探索,而我们仍处于这一技术转型的早期阶段。双方的合作将为 Hugging Face 带来 NVIDIA 最先进的 AI 超级计算,使企业能够通过开源并以他们需要的速度将 AI 的命运牢牢掌握在自己手中,推动未来发展。”
 
Hugging Face 中大幅增强 LLM 定制和训练功能

Hugging Face 平台让开发者能够利用开源资源构建、训练和部署最先进的 AI 模型。目前有超过 15,000 家企业机构正在使用 Hugging Face,社区共享了超过 25 万个模型和 5 万个数据集。
 
DGX Cloud 与 Hugging Face 的集成将实现对 NVIDIA 多节点 AI 超级计算平台的一键式访问。通过 DGX Cloud,Hugging Face 用户将能够连接到 NVIDIA AI 超级计算,提供利用独家数据快速训练和调整基础模型所需的软件和基础架构,推动新一轮企业大语言模型(LLM)开发浪潮。借助由 DGX Cloud 提供支持的训练集群即服务,企业将能够利用其在 Hugging Face 上的独家数据,以前所未有的速度创建出独一无二的高效模型。
 
DGX Cloud 为大规模模型加速开发和定制

每个 DGX Cloud 实例均配备 8 颗 NVIDIA H100 或 A100 80GB Tensor Core GPU,每个节点的 GPU 总内存为 640GB。NVIDIA Networking 所提供的高性能、低延迟结构确保工作负载能够在互联系统集群中进行扩展,从而满足高级 AI 工作负载的性能要求。
 
DGX Cloud 还提供 NVIDIA 专家支持,可帮助客户优化模型并快速解决开发难题。
 
DGX Cloud 基础设施由领先的 NVIDIA 云服务提供商合作伙伴托管。
 
供应情况

与 Hugging Face 集成的 NVIDIA DGX Cloud 预计将在未来几个月内推出。
 
请点击观看黄仁勋的 SIGGRAPH 主题演讲,了解有关 NVIDIA DGX Cloud 的更多信息。
 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 相关推荐
  • AI

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分