元数据增加了坐在距离目标数千英里之外的飞行员的态势感知
有人驾驶飞机的飞行员拥有导航设备、传感器输入和智能,可以知道飞机在哪里以及目标在哪里。飞行员可以向敌方地点发射导弹或向目标投掷炸弹,并以相对较高的信心完成任务。多种技术增强了飞行员的态势感知能力并发挥了指挥和控制权限。叠加在驾驶舱显示屏上的补充数据很有用,但对完成任务并不重要。
如果飞行员距离目标数千英里,用操纵杆驾驶飞机并在视频屏幕上扫描地形和威胁怎么办?在当今的远程和虚拟化战斗场景中,飞行员更难理解他们所看到的图像,而没有元数据,即有关数据的数据。无人驾驶空中和地面车辆的激增使得元数据的快速编码、压缩、传输、解码、传播和显示与实时流视频一样重要。
在远程飞行任务中,元数据可能意味着击中目标和击中其他东西之间的区别。尽管今天的传感器很复杂,但它们可能会产生误导或完全危险,而没有一些图像更大背景的迹象。例如,在千英里环路的另一端,决策者在查看疑似敌方车辆在道路上行驶的视频时,需要知道车辆相对于其他感兴趣物体的航向。操作员还可能想知道诸如图像的地理坐标、现场的本地时间以及传感器主机的标识号等信息。
虽然视频是基本数据——任务的必要条件——但其固有的模糊性使其本身不足以采取行动。同时处理的元数据 - 以及元数据越多越好 - 是获得预期结果的关键。
元数据可以像视频文件随附的音频文件、电视上听障人士的隐藏式字幕、外国电影上的字幕或电子邮件上的时间和日期符号一样简单。元数据也可以像实时方向和源提示一样苛刻,用于从无人平台流式传输视频片段。它可以指示GPS位置,时间和日期,平台上摄像头的方向,主机的高度和空速等等。它可以来自视频流内部或外部源,例如传感器、跟踪设备或其他计算机。
加工挑战
元数据自视频诞生以来就一直使用,并以大量视频传输格式存在。然而,编码和解码方法的多样性给元数据处理技术带来了挑战:如何从内部和外部来源捕获和传递所有格式?此外,如何在执行视频处理的主要任务时以最小的延迟在插入和提取元数据两个方向上做到这一点?
如今,大多数元数据处理引擎都与特定格式相关联,例如用于元数据插入和提取的KLV(键-长度-值)标准、北约的STANAG 4609或目标光标(CoT)。(围绕一种格式统一起来的努力尚未取得成果。特定于格式、基于硬件的处理平台可以提高速度,但不一定能保证随着时间的推移性能。追溯添加新功能可能会导致周期中期进行代价高昂的重新设计。大多数元数据处理也是单向的,插入或提取此信息,而不是同时执行这两个操作。
捕获任何类型或长度的元数据所需的嵌入式逻辑也比锁定特定固定格式并忽略其他所有内容所需的编码更复杂。
这种元数据处理方法的一个例子是GE智能平台ICS-8580,这是一个坚固耐用的XMC视频流模块,最近更新了基于固件的元数据处理引擎,该引擎与格式无关,双向,吞吐率快至500 KB/秒,100倍压缩的视频数据具有2到8Mbits/秒的吞吐量。
鉴于当今混合的编码/解码算法,最好的策略可能是捕获所有类型的元数据,并让军事应用程序整理出要翻译和显示的元数据。这种方法允许未来的增长,同时为中游昂贵的更新项目提供保险。
审核编辑:郭婷
全部0条评论
快来发表一下你的评论吧 !