什么是多模交互 智能座舱为什么要做多模交互

汽车电子

2372人已加入

描述

智能座舱中新技术、新场景、新模式不断涌现,设计师需要考虑如何让驾驶员在驾驶车辆时有安全、高效、舒适的人机交互体验,多模态交互将会成为未来人机交互的主流。    

什么是智能座舱与多模态交互

  跟传统座舱相比,智能座舱的“智能”主要体现在以下几个方面:   智能化:App远程控制、智能形象+语音欢迎语等;   科技性:高精地图、智能导航、疲劳监测、驾驶坐姿调整等;   易用性:多屏互联(中控屏、仪表盘)等;   安全感:底盘操控、驾乘品质感等;   人性化:自动泊车、寻找充电桩、自动充电等;   第三空间:沉浸式座舱、智能游戏等。  

  什么是多模态交互

  “多模态交互”就是融合了人的视觉、听觉、触觉、嗅觉等多种感官,计算机利用多种通信通道响应输入,并充分模拟人与人之间的交互方式。  

智能座舱中常见的模态有哪些?  

目前智能座舱的模态包括视觉、听觉、触觉、嗅觉,对应的模态在智能座舱的体现:  

视觉:HUD+仪表盘+中控+后视镜+氛围灯    

  听觉:音乐+语音交互+警示音  

 

  触觉:方向盘+按键+中控+挡位+座椅+安全带更多用于提示场景      

手势:隔空控制音量、切换歌曲、控制车窗等场景      

嗅觉:不同气味用于不同场景,疲劳场景可提神     

智能座舱常见模态的优缺点

智能座舱的大部分的信息都放在视觉通道里面,这无疑会增加驾驶员的认知负荷,单模态交互难以满足复杂的驾驶场景,各模块彼此间的关联性不强,大大降低了信息感知的价值。  

语音交互

  如何实现高效、安全、易用的人机交互,避免驾驶员注意力分散,降低交互认知和改善人车交互体验是值得思考的问题。  

多模态的交互如何改善驾驶过程的安全与效率?

  智能座舱为什么需要多模态交互

研究表明,人更习惯多模态交互,尤其高优先级消息以多模态的冗余增益可以加快处理时间,例如视觉+听觉或视觉+振动触觉警告比单模警告拥有更快响应。  

通过【多重资源理论】和【态势感知】两个模型来进行分析

多重资源理论:一个通道接收的信息是有上限的,当信息过载时,会导致人的认知负荷,从而降低效率。为避免视觉通道超负荷,可以将部分信息通过听觉通道呈现,这能有效降低司机的工作负荷。  

语音交互

  态势感知:态势感知是一种感受者根据环境因素而动态、整体地理解当前情境的能力,由此可以提升对安全风险的发现识别、理解分析及响应能力,以便于做出最终的决策与行动。   比如,对新手司机来说在驾驶中,会比较关注路面,这时候如果在视觉上弹出信息,就很容易分散注意力,这就是态势感知的丧失。而通过语音或者触觉的通道去反馈,可以提高了安全性和效率。  

语音交互

  智能座舱多模态交互的重要性对驾驶员行为和状态进行多模监测

通过对方向盘的转向,行驶轨迹,油门的加减速,以及视觉摄像头的分析,可以判断驾驶员是否在开启ADAS系统后,处于瞌睡、疲劳、分心等脱离驾驶状态中。  

多模提示让驾驶员保持良好的态势感知

当车辆开启ACC(Adaptive Cruise Control)功能时,车辆监测车外环境,包括其他车辆的运动状态、特定工况等,结合车内动态信息显示在AR-HUD上,比如当下时速、车距、基本车辆信息,帮助驾驶员判断前车运动轨迹,增强态势感知,降低驾驶员工作负荷,及时作出有效判断及行动。

    智能座舱多模态交互的应用

1. 语音+视觉

语音交互在实际应用中是不可见的,如果不与其他模态进行融合,很难预判出他们发出的指令处于哪个状态。比如在进行语音命令时,它产生的状态有:唤醒-聆听-识别-播报-持续倾听,通过中控屏幕上的语音虚拟形象状态属性来区别不同阶段,可以提高驾驶员的安全感。  

语音交互

  2. 视觉+触觉

小鹏P7打开车道辅助时,为了减少驾驶员在开车时低头看仪表盘,方向盘会通过抖动的方式来提示目前车辆压线的状态;另外,还可以通过方向盘的物理按键唤醒语音,语音虚拟形象的状态变化显示在中控屏上。  

除了常规的多模态交互以外,在广义的模态交互还包括了什么?

通过面部特征识别分析当前驾驶者的坐姿设置,自动调节座椅和方向盘高度换而言之,通过眼动追踪、心电、呼吸特征监测驾驶者是否疲劳、身体异常、分神等异常情况,进行多模态警示,来保障驾驶者的安全。

编辑:黄飞

 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分