描述
电子发烧友网报道(文/吴子鹏)截至2023年,RISC-V在主流应用中占比约30%,在主流市场年增长率超过40%,几乎用10年时间完成了Arm架构30年的历程。对于接下来RISC-V的走向,业界普遍认为RISC-V+AI是未来的大方向。在第四届滴水湖中国RISC-V产业论坛上,圆桌论坛环节也着重聊到了RISC-V+AI这个话题。
随着AI落地的深入,应用方面遇到的挑战也随之浮出水面,“降低使用门槛,拓展算力应用场景”成为客户的呼喊,也是RISC-V+AI落地的痛点。对此,北京大学讲席教授、RISC-V国际基金会人工智能与机器学习专委会主席谢涛在圆桌上表示,RISC-V+AI这个组合里面,就是CPU和协处理器的配合,CPU是个大房子,要实现AI落地就是在大房子边上“长”出一个小房子,并和大房子打通,以此来完成AI应用落地。这个组合里,协处理器也可能是一个大房子,并且可能会有很多协处理器。
另外,谢涛在演讲中提到,国产RISC-V要在AI算力方面实现突破,需要做到国际标准+开源社区两手抓,以推动RISC-V国际标准为抓手到国际借力,以共建国际开源软件生态为抓手到国际借力。
不过,乌镇智库理事长张晓东对此提出了疑问,做得好的生态往往是先有了需求、先有了产品,然后在“产品”和“需求”的生态上建立一个标准,这个标准往往会容易成功。如果说现在凭空制造一个RISC-V+AI的标准,可能会遇到更大的挑战。
谢涛在回应这个问题时谈到,RISC-V国际基金会推标准是自底向上的,我们共同追求目标。推标准不是目的、是手段,推成标准之后各大国际开源主流社区,就自然地支持这项标准并更新迭代、自己维护。和英伟达CUDA生态不同,RISC-V不是一个排他的思路。比如,也有一些国际公司很看好Triton生态,为它壮大生态,在大烟囱下面做成了小烟囱,包括英伟达也是积极地支持Triton生态,大家合力将开源的Triton生态做大。
对于如何做好“RISC-V+AI”的生态这个问题,达摩院(上海)科技有限公司研发总监梁中书认为,硬件层面AI的算力必然会走向端用化,目前的支持当然还是在“核内”,是紧耦合的,RISC-V+相关AI加速器则是松耦合的。AI的应用要追求最佳性能,它其实是要做很多特定优化,所以AI某种程度上很可能是一个个性化的应用。
软件层面,工具链的支持、相关基本软件库的适配也是非常关键的,有助于实现RISC-V+相关AI加速器的松耦合。
打开APP阅读更多精彩内容