为了供应,英伟达将GPU装换为AI引擎

描述

据金融时报报道,中国的互联网巨头正争相采购对构建生成人工智能系统至关重要的高性能英伟达芯片,由于担心美国将实施新的出口管制,中国的互联网巨头们纷纷购买了价值 50 亿美元的订单。

据多位知情人士透露,百度、字节跳动、腾讯和阿里巴巴已下达价值 10 亿美元的订单,从这家美国芯片制造商采购约 10 万颗 A800 处理器,并将于今年交付。两位接近 Nvidia 的人士表示,中国集团还购买了价值 40 亿美元的图形处理器,将于 2024 年交付。

领先的云 GPU 提供商表示,Nvidia 最好的 AI 芯片在 2024 年之前的产能已经售罄。

Nvidia的产品现已成为科技行业最宝贵的资源。企业和初创企业正在疯狂地将预算重点转向新的人工智能项目,并迫切需要 GPU。亚马逊网络服务首席执行官 Adam Selipsky在本周接受 The Verge 采访时表示:“[Nvidia GPU] 供不应求”。

“我认为,至少在短期内,英伟达需求超过供应,这一点毫无争议,对每个人来说都是如此。”Adam Selipsky补充说。

Adam Selipsky进一步指出,生成式人工智能并不便宜。目前它的价格非常昂贵。GPU 的性能非常好,但也相当昂贵。例如,训练模型的成本非常昂贵。然后,运行推理或运行模型并在生产中对这些模型进行查询也非常昂贵。因此为了经济地完成这些任务,您需要云。绝大多数公司都需要像 AWS 这样的公司进行创新,随着时间的推移大幅降低成本,以推动我们不可避免地希望看到生成式 AI 使用量的指数级增长。

CoreWeave 联合创始人兼首席技术官 Brian Venturo在接受Barron's Tech的采访时也表示,今年第一季度,确保供应链中的 [GPU] 分配和产能仍然相当容易。从四月初开始,市场变得异常紧张。交货时间从合理到年底。[这一转变]发生在一周内。不仅仅是云服务提供商,他们已经有了自己的分配。这都是增量需求。它来自大型企业和人工智能实验室。

他表示,任何对物流和资源规划进行合理规划的人现在都在关注 2024 年第一季度至 2024 年第二季度。而CoreWeave也将开始为明年第二季度和第三季度的部署进行采购。

在问到为何大家都在抢购英伟达GPU时,Brian Venturo指出,英伟达的护城河是双重的。

首先是硬件方面。没有人比英伟达更擅长制造芯片。其次是软件。上市时间对于初创企业来说非常重要。如果您需要重组整个技术堆栈以使用 AMD 或 TPU [来自 Google 的张量处理单元],那么您可能会失去市场机会,这是宝贵的时间。

Nvidia 在 CUDA(软件编程平台)生态系统上进行了大量投资,他们的先见之明令人难以置信。他们现在基本上领先其他人10年。这不仅仅是 Nvidia 的 10 年,而是他们的客户和开发人员在该生态系统(使用软件工具和库)上构建的 10 年,利用了其他人之前的工作。我认为在短期甚至中期内没有其他人能够超越 Nvidia。

使用 Google 的 TPU 和 AWS Trainium 加速器的问题被锁定在具有非常具体的技术解决方案的供应商身上。对于初创企业来说,这可能不是最好的选择。您希望供应商具有灵活性,因为您知道可以在多个地方获得相同的东西。

[Nvidia 的专有网络] InfiniBand 还提供了当今最好的解决方案来最大限度地减少延迟。其他产品不具备拥塞控制和使工作负载发挥最佳性能的功能。

为了供应,英伟达将GPU装换为AI引擎

为了缓解GPU 挤压的压力,Nvidia 的 RTX GPU(主要以游戏和图形闻名)正在为对桌面 AI 感兴趣的爱好者进行配置和重新包装。新的 GPU 是 Nvidia 使 GPU 在客户需要时随时随地可用的方法的一部分。

该公司发布了 RTX GPU,可用于人工智能推理和训练。GPU基于Ada Lovelace架构,与供不应求的红热H100 GPU中使用的Hopper架构不同。

爱好者已经在游戏笔记本电脑上使用 GPU 来运行人工智能驱动的应用程序,例如文本到文本或文本到图像模型。在本周的 SIGGRAPH 会议上,Nvidia 宣布了采用 RTX GPU 的新桌面和工作站设计。

包括戴尔、联想和 Boxx 在内的计算机制造商将推出可在机箱中容纳多达四个 RTX 6000 数据生成的工作站。Nvidia 表示,该 GPU 的建议零售价为 6,000 美元,但戴尔等供应商的售价(含税)超过 9,000 美元。

每个 RTX 6000 GPU 均基于 Ada Lovelace 设计,拥有 48GB GDDR6 内存和 200Gbps 网络接口卡。GPU 的功耗为 300 瓦,基于较旧的 PCIe 4.0 互连标准。

Nvidia还发布了L40S Ada GPU,它更像是H100的穷人版本,因为它在AI训练和推理方面比上一代A100 GPU更快。新产品是一年前发布的L40服务器GPU的变体。

L40S 还具有 48GB GDDR6 内存,并将应用于基于 OVX 参考服务器设计的系统中,用于 Metaverse 应用程序。

与基于上一代 Ampere 架构的上一代 A40 GPU 相比,L40S 的 AI 和图形工作负载速度提高了四倍。AI训练速度比A100 GPU快1.7倍,推理速度快1.5倍。L40S 具有更快的时钟速度和更高的张量和图形渲染性能。

Nvidia 的企业 RTX 系统是为 Metaverse 和 AI 市场打造的,新硬件将包括 Omniverse 和 AI Enterprise 软件的许可证。该公司还发布了 AI Enterprise 4.0,其中将包括 Nemo 大语言模型。

购买将于今年晚些时候发货的 L40S GPU 电源应该不会有什么困难。

Nvidia 专业可视化副总裁 Bob Pette 在新闻发布会上表示:“这些不会像我们在一些最高端 GPU 中那样受到限制。”

Nvidia 的低端 RTX 4000 GPU 将于 9 月上市,售价为 1,250 美元。RTX 4500 将于 10 月开始发售,售价为 2,250 美元。

对于 Nvidia 来说,人工智能与游戏一样重要。该公司希望让 GPU 成为一种商品,爱好者可以在上面创建自己的程序,然后在最接近的 GPU 可用的地方运行。Nvidia 的 H100 GPU 很难找到,但已成为公司的资产。一家名为 CoreWeave 的初创公司已将其 Nvidia GPU 作为抵押品,为其发展提供资金。加密货币矿工也在重新利用数据中心的 GPU 来运行人工智能。





审核编辑:刘清

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分