微波EDA网,见证研发工程师的成长!
首页 > 硬件设计 > 硬件工程师文库 > AR-HUD增强抬头显示技术详解

AR-HUD增强抬头显示技术详解

时间:07-30 来源:互联网 点击:

距离的投影面的 AR-HUD 后,优点也是显而易见的: 在大多数交通情况下,用 7.5 m 远投影面直接在行驶道路上增强内容,而 2.4 m 近投影面则用于显示状态信息。

AR-Creator 融合数据和生成图像

大量模拟实验和大陆集团真人实验表明,增强图像显示出现在车辆前方约 18 到 20 m且根据路线持续大约 100 m时,驾驶员会感到比较舒适。 负责研发 AR-Creator 的 Peter Giegerich 阐述了图像提示的生成原理以及正确放置这些图像提示的方法: "AR-Creator 是一种极具挑战的最新发展方向。 此控制器须对大量数据流进行评估,以使图像元素在成像幕上精确定位,从而准确投影到驾驶员的 AR- HUD 视域中。 其中一些需要进行相当多的运算。"

AR-Creator 将对三个来源的数据进行融合: 单摄像头可用于绘制道路几何形状。 其中包括回旋曲线、车辆前方车道曲率的数学描述。 车辆前方物体的大小、位置和距离来自雷达传感器数据与对照的相机数据组合。 最后,大陆集团的电子地平线(eHorizon) 提供地图框架,将现场传感数据编译其中。 在演示车辆上 eHorizon 仍是静态的,仅仅使用导航数据资料。 大陆集团业的高动态联网eHorizon产品已到达批量生产水平,它可以处理各种来源(车对车、交通控制中心等)的数据并在AR-HUD 上显示。 通过整合行驶动态数据、摄像头数据和 GPS 数据在数字地图上定位车辆位置。

AR-Creator利用 融合的数据计算出从驾驶员位置看到的车前方道路的几何图形。 这样可行是因为驾驶员眼睛的位置是知道的: 在演示车辆上司机在驾驶前需正确设置一下眼睛识别框的位置。 这个操作可以通过内部摄像头自动进行。 它能够识别驾驶者眼睛的位置并指导眼睛识别框定位。 眼睛识别框是一个矩形区域,其宽度和高度与理论"视窗"相当。 就只要驾驶员从这个窗口看向道路,他就能看到完整的AR-HUD 图像。 乘客看不到 HUD 和 AR-HUD 显示的内容。

"AR-Creator 从眼睛识别框的可调节位置知道,驾驶员眼睛在哪里,以及正在以哪个角度查看交通状况和周围环境。"Giegerich 解释道。 驾驶员辅助系统如果探测到什么情况,相应的虚拟图像提示就会生成并投射到AR-HUD屏幕的正确位置上。

少即是多

据人机界面(HMI)开发人员 Stephan Cieler 称,大部分开发工作都是围绕虚拟提示的设计进行的。 "经过无数次的设计研究和真人实验,我们在 AR-HUD 上也贯彻了: 少即是多的座右铭。"因此最初的想法,在车道上铺一条透明的彩色地毯,很快就被丢弃。 "我们希望只给驾驶员提供必要的最少的图像提示,不遮住真实的驾驶视野。"

例如作为导航辅助的折角箭头,可以选择将它们"平放"在车道上,以及换向时直立旋转到新的行驶方向,就像一个指示牌。 这样的设计在急转弯处也能提供虚拟提示,但在这种情况下由于缺少远景视距不能实际增强。

越过车道边界的警告也会谨慎地提示。 只有当驾驶员无意中越过所有预示标志后,演示车辆的 AR-HUD 才会强调车道边界。

如果 eHorizon 预先收到事故信息,一个设置了高关注值的危险标志就会适时出现在驾驶员视野内。 "只要安装了这种与驾驶者的新型交互形式,HMI 就能提供多种途径使驾驶者了解和预见行车情况。 就像司机与汽车展开了一场无声的对话",Richter 说。

Copyright © 2017-2020 微波EDA网 版权所有

网站地图

Top