英特尔和MathWorks利用人工智能减少5G RAN中的前传流量

描述

在高度连接的 5G 世界中,高速、低时延的无线通信必不可少。5G 网络生成了海量数据,这些数据必须通过光纤电缆,在射频和基带之间同步传输。因此需要一个具有光连接能力的庞大网络,这将大幅增加企业在网络上的资本支出。  

在 5G 无线接入网 (RAN) 中,使用人工智能 (AI) 技术压缩射频和基站之间交换的数据。英特尔和 MathWorks 使用基于 AI 的自动编码器压缩信道状态信息数据,以减少前传流量。

基于 AI 的压缩不仅能保证用户数据完整性,这些压缩算法还能维持通信系统的可靠性和性能标准。此外,实施 CSI 压缩和自动编码器还会带来其他优势,包括减少数据和降低误块率。这有利于移动网络运营商减少前传流量,降低总体前传带宽要求,最终节省成本。

MathWorks 和英特尔使用 MathWorks MATLAB* 和 Simulink*、面向英特尔 FPGA 的 DSP Builder、英特尔 Quartus Prime 设计软件、英特尔 FPGA 人工智能套件和针对英特尔 SoC FPGA 的 OpenVINO 工具箱来支持基于 AI 的前传压缩技术。

借助领先的英特尔工具和技术,硬件开发者可以使用英特尔 FPGA、MathWorks 5G 工具箱* 和深度学习工具箱,将 AI 无缝集成至 5G RAN 中。  

MathWorks:简化英特尔 FPGA 的无线和 AI 开发      

MathWorks 深度学习工具箱提供用于设计和实施深度神经网络的算法、预训练模型和应用。您可以使用面向英特尔 FPGA 的 DSP Builder,将 MATLAB 函数和 Simulink 模块直接转化为 HDL 或 Verilog,并将其用于 5G 无线应用。Simulink 包括用于模拟和硬件部署的多个库,您可以在 Simulink 中利用 DSP Builder 模块生成针对英特尔 FPGA 优化的 HDL 代码。  

英特尔 FPGA 人工智能套件:简单易用      

英特尔 FPGA 人工智能套件的目标是帮助用户在英特尔 FPGA 上实现易于使用的 AI 推理应用。套件的工具流将 MathWorks 深度学习工具箱和英特尔 FPGA 人工智能套件结合在一起,以支持 FPGA 设计人员、机器学习工程师和软件开发者设计与实施经过优化的 FPGA AI 应用。

英特尔 FPGA 人工智能套件中的库使用流行的行业框架(例如 TensorFlow* 和 PyTorch*)和 OpenVINO 工具套件加快基于 FPGA 的 AI 推理应用的开发速度,同时在英特尔 Quartus Prime 设计软件 IDE 中构建强大且业经验证的 FPGA 开发流程。

英特尔 FPGA 人工智能套件与开源项目 OpenVINO 工具套件协同运行,从而优化各种硬件架构上的推理。OpenVINO 工具套件对来自所有主流深度学习框架(例如 TensorFlow、PyTorch 和 Keras*)的深度学习模型进行优化,以便在 CPU、CPU+GPU 和 FPGA 等各种硬件架构上执行推理。  




审核编辑:刘清

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分