曦思N100:功能强大的AI全流程处理GPU

描述

人工智能技术的蓬勃发展和智能应用的不断落地,正在深刻地影响和改变着我们的生活。GPU、NPU、FPGA等各类AI芯片为人工智能的发展提供了算力支撑,其中又以GPU应用最为广泛。接下来让我们一起了解一下沐曦的首款GPU产品:曦思N100。

曦思N100是沐曦面向人工智能推理场景推出的高效能GPU产品,针对产品性能,沐曦的架构师们进行了两大方向的优化: 

01要让“计算算的快”

大家都知道GPU通用性好,适应性强,但反向来说面向特定场景它可能并不是最优解。针对AI应用场景的特点,曦思N100采用了GPGPU+DLA的异构架构,GPGPU可保持GPU的通用可编程性,而DLA(Deep Learning Accelerator)则可加速深度学习任务从而达到更高的计算性能,通过量身打造的推理软件栈MacaRT可实现内部计算资源的自动调度和优化。

02要让“数据跑的快”

曦思N100采用高带宽低延迟的设计理念,高速片上网络(High Speed Fabric)的应用使各计算单元间的数据传输更加通畅,HBM2E高带宽显存则为存算交互提供了高速的数据通道,同时曦思N100还加持了目前最先进的PCIe5.0接口,不管是对内还是对外的数据通路都是无比畅通的大道!

除了对计算性能的需求之外,很多人工智能的场景还涉及到大量的视频图像处理任务,如果都用CPU来做,整体效率低下而且需要消耗很多CPU资源。针对这种情况,曦思N100在片内集成了强大的视频处理内核,可支持视频编解码、图像编解码、图像处理等功能。高达96路的视频解码功能,可在视频智能分析等场景大幅降低单路分析成本。高达128路的视频编码功能则使其能够在短视频、视频云等需要做高并发编码、转码和AI处理的场景大幅提高处理密度并降低单路成本。所以,可以说曦思N100是一款AI全流程处理GPU,不止功能全面还能有效地降低系统整体成本(TCO)。

除了硬件性能强大、功能完备之外,一款好的产品必须要让用户觉得好用、易用!对此沐曦团队打造了MXMACA1.0软件栈,其中包括简单易用的MacaRT推理引擎、开箱即用的Model Zoo和应用实例,同时也对主流软件生态如FFMPEG、OpenCV等进行了兼容支持,最大限度的遵循用户使用习惯,帮助开发者降低学习和开发成本。

曦思N100人工智能推理GPU非常适合应用于基于视觉的AI处理场景。沐曦已联合合作伙伴打造了多种基于曦思N100的解决方案,如高密度视频结构化分析解决方案、高并发智能转码解决方案、光电混合异构计算解决方案等,这些方案可广泛应用于城市安防、智慧交通、工业视觉、短视频、云计算和智算中心等多个领域。

目前曦思N100已经正式推向市场,并进入批量量产阶段。沐曦将携曦思以及未来更多的GPU产品持续为中国的社会发展和科技进步提供强大算力!

审核编辑:汤梓红

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分