在高度连接的 5G 世界中,高速、低时延的无线通信必不可少。5G 网络生成了海量数据,这些数据必须通过光纤电缆,在射频和基带之间同步传输。因此需要一个具有光连接能力的庞大网络,这将大幅增加企业在网络上的资本支出。
在 5G 无线接入网 (RAN) 中,使用人工智能 (AI) 技术压缩射频和基站之间交换的数据。英特尔和 MathWorks 使用基于 AI 的自动编码器压缩信道状态信息数据,以减少前传流量。
基于 AI 的压缩不仅能保证用户数据完整性,这些压缩算法还能维持通信系统的可靠性和性能标准。此外,实施 CSI 压缩和自动编码器还会带来其他优势,包括减少数据和降低误块率。这有利于移动网络运营商减少前传流量,降低总体前传带宽要求,最终节省成本。
MathWorks 和英特尔使用 MathWorks MATLAB* 和 Simulink*、面向英特尔 FPGA 的 DSP Builder、英特尔 Quartus Prime 设计软件、英特尔 FPGA 人工智能套件和针对英特尔 SoC FPGA 的 OpenVINO 工具箱来支持基于 AI 的前传压缩技术。
借助领先的英特尔工具和技术,硬件开发者可以使用英特尔 FPGA、MathWorks 5G 工具箱* 和深度学习工具箱,将 AI 无缝集成至 5G RAN 中。
MathWorks:简化英特尔 FPGA 的无线和 AI 开发
MathWorks 深度学习工具箱提供用于设计和实施深度神经网络的算法、预训练模型和应用。您可以使用面向英特尔 FPGA 的 DSP Builder,将 MATLAB 函数和 Simulink 模块直接转化为 HDL 或 Verilog,并将其用于 5G 无线应用。Simulink 包括用于模拟和硬件部署的多个库,您可以在 Simulink 中利用 DSP Builder 模块生成针对英特尔 FPGA 优化的 HDL 代码。
英特尔 FPGA 人工智能套件:简单易用
英特尔 FPGA 人工智能套件的目标是帮助用户在英特尔 FPGA 上实现易于使用的 AI 推理应用。套件的工具流将 MathWorks 深度学习工具箱和英特尔 FPGA 人工智能套件结合在一起,以支持 FPGA 设计人员、机器学习工程师和软件开发者设计与实施经过优化的 FPGA AI 应用。
英特尔 FPGA 人工智能套件中的库使用流行的行业框架(例如 TensorFlow* 和 PyTorch*)和 OpenVINO 工具套件加快基于 FPGA 的 AI 推理应用的开发速度,同时在英特尔 Quartus Prime 设计软件 IDE 中构建强大且业经验证的 FPGA 开发流程。
英特尔 FPGA 人工智能套件与开源项目 OpenVINO 工具套件协同运行,从而优化各种硬件架构上的推理。OpenVINO 工具套件对来自所有主流深度学习框架(例如 TensorFlow、PyTorch 和 Keras*)的深度学习模型进行优化,以便在 CPU、CPU+GPU 和 FPGA 等各种硬件架构上执行推理。
审核编辑:刘清
全部0条评论
快来发表一下你的评论吧 !