2020年汽车座舱SoC技术与应用研究报告

描述

佐思汽研发布《2020年汽车座舱SoC技术与应用研究报告》。   我们知道,智能汽车E/E架构发展趋势是从分布式阶段演进到域内集中阶段,跨域集中阶段和中央计算机阶段。对于多数厂家而言,当前正处于域内集中阶段。  

来源:伟世通

对于座舱域而言,域内集中意味着需要强大的座舱SoC。更具体的讲,强大的座舱SoC必须符合当前座舱发展的需要:支持更多显示屏,支持更多AI功能,与ADAS融合,提升功能安全等。  

支持更多显示屏

座舱一芯多屏趋势下,座舱SoC支持显示屏数量多少,是能否被用户采用的决定性因素之一。第三代高通骁龙座舱SOC,基于强大的CPU和GPU,可支持多达6-8个显示屏。   三星Exynos Auto V9处理器可同时支持多达六个车载显示器,以及十二个摄像头。奥迪智能座舱开始采用三星Exynos Auto V9。   2020年最新发布的芯驰科技X9系列用于智能座舱,可支持八个FHD显示屏,以及十二个摄像头。   CES2020 上,恩智浦展示了基于双i.MX 8QuadMax芯片实现的、支持多达11块屏幕的多屏解决方案。  

支持AI

对AI的支持方面,英伟达无疑走在最前面。英伟达在2007年推出CUDA的时候,就想到用CUDA建立了生态圈。这样对NVIDIA既能卖硬件,又能在软件上保持领先,增加用户粘度。英伟达的座舱SoC在深度学习领域优势明显。但英伟达在汽车领域的发展重心放在自动驾驶芯片,在座舱处理器领域市场份额并不大。   恩智浦通过收购飞思卡尔,拥有了一支机器学习专家团队。该团队就是CogniVue,一家位于加拿大渥太华的图像认知IP开发团队,是飞思卡尔于2015年9月收购的。恩智浦的eIQ自动深度学习(DL)工具包使开发人员能够将DL算法引入其应用程序并满足严格的车规级标准。

恩智浦不仅在投资构建AI功能,并一直在关注AI的缺陷。深度学习依靠概率来识别物体,并且结果是不可解释的,这对安全要求极高的汽车来讲,可能会带来灾难性后果。恩智浦在持续研究一种方法,名为“可解释的AI(xAI)”。xAI通过添加更合理、类似于人的决策方法和额外的确定性维度,扩展了机器学习的推理和计算概率能力。xAI将AI的所有优势与推理机制相结合,使其更接近人类的反应方式。  

融合部分ADAS功能,提升功能安全能力

部分ADAS功能,如行人或障碍物识别、全景泊车等都有放入座舱域的趋势,使得座舱SoC需要考虑ADAS相关处理能力。   譬如主要应用在座舱的R-Car H3,也能处理复杂功能,如障碍物检测、驾驶员状态识别、危险预测和危险规避。   目前越来越多智能座舱加入了HUD,而最新的AR-HUD和ADAS结合紧密,如提供跟车距离预警、压线预警、红绿灯监测、提前变道、行人预警、路标显示、车道偏离、前方障碍物检测、驾驶员状态监测等功能。   座舱SoC一旦加入部分ADAS功能支持,对功能安全的要求也将同步提升。这给座舱SoC供应商提出了更大的挑战。

文章出处:【微信公众号:佐思汽车研究】欢迎添加关注!文章转载请注明出处。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分