预计2024年全球AI服务器将达160万台,AI PC逐步普及

描述

  1 月 18 日,据TradeSource Consulting (TSRC)发布的最新研究预测,到2024年为止,全球AI Server(包括AI Training与AI Inference)预计将超过160万台,较上一年度增长约40%。

  该公司进一步指出,自2025年起,AI PC将会逐渐普及。他们预期,到了2024年下半段,将会有厂商推出计算能力达40TOPS的AI PC,同时,英特尔计划在2024年年末之前推出Lunar Lake处理器,这将有助于推动AI PC的全面拓展。

  TSRC分析认为,AI PC商业化主要受到两大因素驱动。首先,终端应用的需求起着重要作用。微软将AI功能融入Windows和Office等知名软件中,促使AI PC逐渐发展壮大。其次,英特尔借由推动CPU+GPU+NPU架构,刺激了各类终端AI应用的丰富性。

  在其他芯片领域,高通于去年年底推出了Snapdragon X Elite平台,具有45TOPS的计算能力,能够满足AI PC的需求。此外,AMD的Ryzen 8000系列(Strix Point)和英特尔的Meteor Lake也都被广泛看好,前者预计拥有34TOPS的算力,能实际应用于AI PC。另一方面,AMD的Lunar Lake预计将于明年推出,有望超过40TOPS。

  需要特别提及的是,这场围绕AI PC展开的争夺战,不仅关乎X86及Arm两大CPU阵营在Edge AI市场的位置,还涉及高通、英特尔以及AMD的未来发展。

  同时,如戴尔、惠普、联想、华硕、宏碁这些OEM巨头预计将在2024年逐步推出现阶段搭载高通CPU的新款PC机型,这无疑将给X86阵营带来新的压力。

  就内存规格而言,根据微软设定的AI PC标准,建议至少配置16GB内存。长远来看,TSRC预判AI PC将可能促进PC DRAM需求增长。然而,受消费者换机周期影响,AI PC对PC DRAM位元需求可能会进一步提高。

  此外,为了满足NPU40TOPS所需的CPU,微软制定了三种选择方案,它们分别使用LPDD5x以便提升传输速度。目前的主流选择通常是DDR SO-DIMM模组,但由于DDR5的传输速率(4800-5600Mbps)相对较低,无法满足AI PC庞大的数据处理需求。相比之下,LPDDR5x的传输速率更佳,能够提供7500-8533Mbps的高速传输,从而更好地支持AI PC接收并处理大量的语言指令。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分