北京大学谢涛:基于RISC-V构建AI算力的优势和两种模式

电子说

1.3w人已加入

描述

电子发烧友网报道(文/吴子鹏)第四届滴水湖中国RISC-V产业论坛上,北京大学讲席教授、RISC-V国际基金会人工智能与机器学习专委会主席谢涛教授进行了题为《万物智联时代的RISC-V+AI算力之路》的主题演讲。在演讲中,他提到了基于RISC-V构建AI算力的优势,以及实现RISC-V AI芯片的两种主要模式。
 
谢涛表示,目前计算技术体系共有三种模式。第一个是A体系,也可称为是“高铁模式”,在高性能计算时就需要加入CUDA阵营(璧仞/阿里平头哥等),研发永远处于“跟随”状态,被人牵着鼻子走难以绕过的大量专利,只能靠开源的编译器规避诉讼。这种模式虽然容易获得客户,但是反而加强了CUDA生态,永远无法实现超越。
 
第二个是B体系,也可称为是“北斗模式”,强调“全自主”,以龙芯和申威为代表,因为不跟市场主流兼容,所以生态弱。这种模式成本高昂,各公司需维护一整套软件工程团队,积累数十年研发投入。
 
第三个是C体系,也可称为是“5G模式”,比如RISC-V,走“全开放”的道路,全世界一起来建生态。
 
因此,谢涛认为,基于RISC-V构建AI算力是必然趋势,也是全球共识。基于RISC-V构建AI算力有很多优势,包括:
• 开放与灵活性
AI工作负载变化快,需要特定的优化才能达到最佳性能;RISC-V开放免费的特性为芯片设计者提供了极大的灵活性,可以根据具体需求定制AI加速器。
 
• 高度可扩展性
RISC-V的指令集精简且高度可扩展;设计者可以根据需要添加自定义指令集扩展,以增强AI计算的性能和效率。例如,可以增加向量扩展或其他专用于AI的指令集,从而提升计算速度和能效。
 
• 功耗和效率优势
RISC-V架构通过简洁设计和定制化扩展,可实现高效的能量使用;RISC-V架构能够通过小型且高效的处理单元,减少等待数据传输的时间,提升整体计算效率。
 
• 生态系统和社区支持
RISC-V生态的多样性和开放性吸引了全球大量开发者和企业加入,为RISC-V的发展提供了强大的推动力和丰富的软件及IP资源,在RISC-V+AI领域具备了良好的发展前景。
 
在基于RISC-V构建AI算力方向上,谢涛提到,这也会有两种主要模式:Integrated 模式(紧耦合)和Attached 模式(松耦合)。其中,Integrated 模式以 CPU主干为骨架,集成在CPU内部,共享 PC(program counter)、寄存器堆等流水线单元;只是在执行单元部分增加了矩阵或向量单元。
 
Attached 模式外挂在 CPU上的,会有自己独立的流水线、寄存器堆、缓存等。它是“协处理器”,它可以接收来自一个或多个CPU的指令;异步地执行不同CPU提交过来的任务。
 
在这两大模式下,谢涛认为,国产RISC-V要在AI算力方面实现突破,需要做到国际标准+开源社区两手抓,以推动RISC-V国际标准为抓手到国际借力,以共建国际开源软件生态为抓手到国际借力。
 
打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分