NVIDIA 自动驾驶实验室:基于剪枝的 AI 模型优化

描述

HALP(Hardware-Aware Latency Pruning)是一种旨在调整卷积神经网络(CNN)和基于 Transformer 的网络结构以实现实时性能的新方法。HALP 能够优化预训练模型,以最大限度地提高计算利用率。在使用 NVIDIA DRIVE Orin 的道路测试中,它始终优于其他方法。


观看本期自动驾驶实验室视频,了解更多信息:



0000 

介绍 Hardware-Aware Latency Pruning (HALP)


0034

常规的模型优化


0019

DNN 剪枝


0048

Hardware Aware Latency Pruning


0000

分类任务


0017

3D 目标检测


0034

基于 HALP 优化 Transformers


0037

了解更多, 请访问我们的 GitHub 和项目页面 


NVIDIA DRIVE 相关资源


  • 在 GitHub 上获悉更多细节:

    https://github.com/NVlabs/HALP

  • 访问项目页面,详情请见:

    https://halp-neurips.github.io/


GTC 2024 将于 2024 年 3 月 18 至 21 日在美国加州圣何塞会议中心举行,线上大会也将同期开放。点击 “阅读原文” 扫描下方海报二维码,关注更多会议及活动信息。


英伟达


原文标题:NVIDIA 自动驾驶实验室:基于剪枝的 AI 模型优化

文章出处:【微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分