GPU和NNA(神经网络加速器)正在迅速成为AI应用的关键要素。随着不同企业开始挖掘神经网络在各种任务(比如自然语言处理、图片分类)中的潜力,集成人工智能元素的产品数量正在稳步的增长。与此同时,对于这些任务的处理也正在从传统的云端架构转移到设备本身上来,嵌入式芯片中集成了专用的神经网络加速器,可支持本地化AI处理。例如先进的驾驶辅助系统(ADAS)能够实时监控前方道路,还有集成语音识别类功能的消费电子产品,比如虚拟助理。基于神经网络的AI应用正在多个细分市场不断扩大。
Imagination公司的业务是为芯片设计提供必要的内核组件,我们在嵌入式图形处理器(GPU)和神经网络加速器(NNA)技术方面闻名,我们将这些技术授权给世界领先的芯片供应商。他们的产品被广泛应用在多个产品和服务中,因此Imagination在市场上占有着独特的位置,我们使得整个生态系统都能够参与到AI的发展中来。
不可否认,ai服务器在很多应用中都是至关重要的,但是也有很多的挑战。其中之一就是协调好终端设备和云服务器之间的处理负载,将AI处理操作放在最佳的位置来完成。例如在消费者终端设备上进行本地化AI语音识别;对于“唤醒”指令或其他简单指令,因为本地设备无法存储庞大的知识数据库,要利用这些数据就必须在云服务器浪潮ai服务器中实现很大一部分AI处理操作。目前的情况是很多市场上销售的产品都带有AI功能,但实际上它们只是在本地进行简单的模式匹配和识别,然后依赖云浪潮服务器完成进一步的AI处理。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
全部0条评论
快来发表一下你的评论吧 !