OpenAI CEO:我屯了很多H100

描述

OpenAI首席执行官 Sam Altman 在 11 月 13 日接受英国《金融时报》采访时表示,OpenAI 已经收到了令人垂涎的 H100 芯片订单,预计很快会有更多订单,并补充说,在获得更多芯片方面,“明年看起来会更好” 。

可以说,今年对 OpenAI 的 ChatGPT 和谷歌的 Bard 等人工智能聊天机器人的关注程度与对Nvidia价值 40,000 美元的 H100 芯片的关注程度不相上下。与许多其他人工智能公司一样,OpenAI 使用 Nvidia 最新型号的芯片来训练其模型。

从 OpenAI 采购更多芯片表明,更复杂的人工智能模型将在不久的将来准备就绪,这些模型将超出为当前版本的聊天机器人提供支持的范围。

对 Nvidia H100 芯片的巨大需求

生成式人工智能系统接受大量数据的训练,以生成对问题的复杂响应,这需要大量的计算能力。Nvidia 的 H100 芯片专为生成式 AI 量身定制,运行速度比以前的芯片型号快得多。哈佛商学院教授 Willy Shih此前告诉 Quartz ,芯片功能越强大,处理查询的速度就越快。

在此背景下,初创公司、AMD 等芯片竞争对手以及谷歌和亚马逊等大型科技公司一直在致力于打造更高效的人工智能应用芯片以满足需求,但迄今为止还没有一家能够超越 Nvidia。

一家公司对特定芯片的如此强烈的需求已经在一定程度上对英伟达造成了购买狂潮,不仅仅是科技公司竞相抢购这些热门芯片,政府和风险投资公司也在竞相抢购。但如果 OpenAI 能够获得订单,也许这种趋势终于会扭转,芯片流向 AI 公司的情况正在改善。

虽然 Nvidia 占据主导地位,但就在上周,SymphonyAI 公司(一家正在构建供制造商内部使用的人工智能聊天机器人的公司)的首席执行官 Prateek Kathpal 告诉 Quartz,尽管其人工智能应用程序运行在 Nvidia 的芯片上,但该公司也一直在讨论AMD 和Arm的技术。

更多芯片对 OpenAI 意味着什么?

OpenAI 不断增长的芯片库存意味着几件事。

H100 芯片将有助于为该公司的下一代人工智能模型 GPT-5 提供动力,Altman 表示该模型目前正在开发中。他告诉英国《金融时报》,新模型将需要更多数据进行训练,这些数据将来自公开信息和公司的专有情报。他补充说,GPT-5 可能会比其前身更加复杂,尽管目前还不清楚它能做什么 GPT-4 不能做的事情。

Altman 没有透露 GPT-5 的发布时间表。但继2020 年发布其前身 GPT-3 后,GPT-4 于 8 个月前发布,一系列快速发布凸显了快速的开发周期。

采购更多芯片还表明,该公司距离创建通用人工智能(简称AGI)越来越近,这是一种基本上可以完成人类可以完成的任何任务的人工智能系统。

 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分