康谋直播Q A | 康谋智驾仿真测试,共筑智驾安全的「信任密码」!

描述

 

 

12月29日下午,康谋智驾仿真测试,共筑智驾安全的「信任密码」”线上研讨会圆满结束,感谢各位观众的支持与互动。

在直播评论区,康谋感受到了大家的热情!再次感谢大家的积极提问,促进了更多的交流与学习。本文汇总了15个直播热点问题并邀请讲师做详细解答,请查收!(上下滑动可以浏览全部Q&A内容)。此外点击阅读原文,即可观看直播回放

下期「汽车多总线数据采集与分析:方案搭建与应用」直播将于2026年1月20日开讲,敬请关注!

此外,文末附获奖名单,大家快来联系小助手兑奖啦!

 

量产应用主题Q&A

Q

PPT中有一个1R1V的HIL测试系统,似乎在感知传感器方面使用的都是暗箱形式,是否可以直接通过仿真器配合相关硬件(例如GMSL板卡)形式直接发送图像数据?

A

现在HIL使用图像板卡注入是普遍的。值得注意的是不同厂商的驱动和数据流处理是不一样的,如果要进行数据注入的开发,需要将这些输出弄清楚,才能避免一些在图像注入时的坑。所以在使用 GMSL 板卡进行注入前,需要找到一家能够提供适配您 ECU 接口驱动的供应商。

Q

场景搭建方面,案例中似乎主要使用的还是OpenDRIVE+OpenSCENARIO,但这个如何保证仿真环境真实度?

A

仿真场景的真实度和OpenDrive和OpenScenario本身并没有太多关系,因为他们相当于是数据格式的一种定义。

对于仿真场景真实度,需要关注被测对象。例如测试感知算法,那就要保证输入的视频流要足够真实,在仿真环境中就要有足够真实的传感器模型。并且,组建一套满足所有测试要求的仿真环境是困难的,通常还是根据想要测试的环节,使用特定的数据源注入。

Q

对于算法闭环评估环节,量产常用的评估方法依然是case by case吗?有没有相对成型的方法论?

A

对于算法评测显然case by case是不够的。

1. 首先需要针对你评测的算法建立评价指标体系。也就是你要评价他什么;

2 .根据测评体系,去搭建你的仿真系统,解决怎么测的问题;

3. 每个评价目标,需要搭建数据库和评价器metrics。

实践来讲,算法无非感知和规控。感知更注重环境、目标的探测精度评价;而规控更侧重道路类型、目标车动作场景下的决策评价、规划的轨迹线评价。

上下滑动,查看更多
 

置信度重构主题Q&A

Q

康谋的3DGS地图是否支持相机的多机位观测?观测到的模型在怎样的范围内可以保持完整?

A

支持。3DGS 是一种显式的 3D 表达,它不是 2D 贴图。所以在理论上,你可以在这个场景里摆放任意数量、任意位置的虚拟相机都能获得正确的透视关系和遮挡关系。

但是3DGS 的渲染质量高度依赖于采集时的观测轨迹。如果仿真相机在采集轨迹的 ±2 到 3 米 范围内移动(模拟换道、轻微的路径规划偏差),我们的 NeRF2GS 可以保证模型是完整的,但是把相机拉到 50 米高空去做上帝视角,或者移动到采集车从未看见过的墙角后方,只会看到伪影和变形。

Q

生成的3DGS地图能否配置不同的天气光照?如何实现光照度的反馈变化?

A

原生的 3DGS 做不到物理级的太阳光角变换,因为把光照信息固定在了高斯球谐函数里,在做到ISP解耦后可以通过调整虚拟传感器的 ISO 和曝光策略来模拟光线变化,对于添加的Mesh动态元素来说,当改变环境光方向时,渲染引擎会计算 Mesh 车辆的 Shadow Map,并将其强行投影到 3DGS 的路面上。这实现了局部动态光照,26年上半年康谋将会发布GS场景的色彩分级和光线的重计算功能。

Q

传感器模型偏差有哪些具体表现?

A

Camera的话同色异谱(看起来颜色一样,但光谱响应不同)、ISP 噪声模型不一致、HDR 动态范围不足;LiDAR:反射率错误(忽略材质物理属性)、光束发散角缺失、噪声缺失;Radar:RCS缺失,缺失多普勒特征等。

Q

静态场景失真如何影响自动驾驶算法?

A

几何失真:重建路面与 HD Map 不对齐导致定位算法漂移 ,导致规划决策错误(如压线行驶)。纹理/光照失真:错误的阴影或高光,导致感知算法产生 False Positives(幽灵刹车)或 False Negatives(漏检障碍物)。

Q

混合渲染如何去拟合3dgs和dynamic object的光照?让物体看得更真?

A

目前阴影的部分会实时计算 Mesh 车辆的 Shadow Map,强制投影到 3DGS 的路面上,不同天气下的重新光照计算可以拆解3DGS重回图形学属性,然后利用光线追踪管线重新打光,或者在训练阶段走风格迁移的方式。

Q

置信度是否可以量化?像车辆动力学仿真模型或者相机等传感器仿真模型或者仿真环境,如何评估这些仿真模型的置信度高或者是低?像车辆仿真模型,是否可以基于实车数据和仿真数据做一个对标,通过调整仿真参数来得到一个置信度相关较高的仿真模型?

A

列举一些常见的量化指标:环境/传感器:计算 几何 RMSE(重投影误差)、色彩 ΔE、 点云KL 散度。动力学:对比实车与仿真的横摆角速度 (Yaw Rate) 和 侧向加速度 曲线。记录实车的控制输入(方向盘、油门、刹车)和状态输出。在仿真中输入同样的控制指令。调整仿真参数(轮胎刚度、悬挂阻尼),最小化仿真与实车的输出误差,直到置信度达标(如误差 < 5%)。

Q

可以介绍一下动态场景中真实交通流的构建方法吗?如何确保准确性和交互的真实性?

A

动态真实交通流会有Log2World的工具链,在重建NeRF2GS的过程中,从真实路采数据中提取交通流片段转换成符合OpenSCENARIO标准的格式,然后在aiSim中使用,这个过程中自动标注出的交通流元素会具备足够的特征信息和来实现轨迹的重建,如果是基于概率的方式重建交通流,也可以利用速分布、车头时距、变道频率 上的 Wasserstein 距离这些指标来看当前生成的场景的分布是否宏观准确。


 

上下滑动,查看更多
 

虚拟数据集主题Q&A

Q

虚拟数据集可以用于感知评测吗,与真实数据集相比优势在哪?

A

可以用于感知模型的评测。与真实数据集相比,虚拟数据集构建的成本低,标注精度高,节省人力和时间成本。并且虚拟数据集能获得丰富的场景,采集到真实路采中较少出现的corner cases。

Q

如何将该数据集用于感知模型训练,格式适配度怎么样?

A

simData目前完全符合nuScenes格式,可以用官方的SDK进行全部解析。对于使用nuScenes格式训练的感知模型都是完美适配的。只需要修改不同的类别名就可以直接使用。同时,基于该格式,可以方便的转换为waymo、kitt等数据集格式。

Q

对仿真生成数据的质量有什么检测的方法和指标吗?仿真数据给到算法训练,是什么训练方式呢,多少比例混合真实数据集,对算法的效果有实际验证数据吗?

A

可以使用感知模型进行评测。分别基于我们的simData虚拟数据集和nuScenes数据集训练感知模型,设计了三组实验来说明虚拟数据集与真实数据集的一致性以及对于模型性能的提升能力,具体可以查看我们的评测报告。指标用了mAP和NDS。

做评测的时候我们使用了纯虚拟数据集训练模型和真实数据集训练的模型在虚拟数据集上进行微调。进行微调的模型展现出了更好的泛化能力。

上下滑动,查看更多
 

仿真加速落地主题Q&A

Q

在HIL测试中,aiSim这样的仿真器扮演什么角色,要求仿真器具备什么样的能力?

A

在HIL测试中,aiSim这样的仿真器扮演着“虚拟世界生成器”与“传感器数据源”的核心角色,负责替代真实的物理道路环境。

这就要求仿真器必须具备高保真的传感器物理建模能力(能输出通过物理渲染的Raw图像、点云或雷达波形以“欺骗”感知算法)、确定性的实时运行能力(确保与ECU的时钟毫秒级同步,不丢帧不卡顿)以及开放的硬件接口支持(能将数据流直接输送给视频注入板卡或CAN/以太网接口),从而在实验室中构建出覆盖边缘场景的高置信度闭环测试环境。

Q

端到端的自动驾驶测试相比于传统的自驾测试有什么区别,对仿真测试流程有什么新的要求?

A

传统的自驾测试是高度解耦,可能将感知、规控等环节分开进行测试,每个环节有着不同的输入源和输出数据。

而端到端模型是一体化的,可能传感器的数据输入后,就直接得到最终的规控结果。这对仿真测试提出了全新要求,不能使用之前不同环节进行数据注入的方式,要求仿真器能提供高保真的传感器数据,保证仿真测试环境与真实环境高度一致。并且测试指标有了新的变化,需要建立基于驾驶结果的全新闭环评价体系。

康谋下期直播预告

 

获奖名单

康谋“智驾仿真测试,共筑智驾安全的「信任密码」”线上研讨会圆满结束,非常感谢各位观众的支持与互动,以下是互动红包获奖名单,快来联系小助手领奖!

本次未有邀请达人产生,期待大家下次积极参与(有效邀约人数:自动驾驶行业专业人士且填写信息无误。)

昵称

红包奖励(元)

联系方式

Vito

18.8

187****9119

Cloud

18.8

178****7193

Beihai

18.8

187****0120

不想错过下一次的活动预告分享?

点击上方卡片关注我们,及时获取康谋资讯!

 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分