4月15日,位于加州圣何塞的CY Vision是一家默默开发先进平视显示(HUD)技术的公司,而现在他们已经准备好介绍自己的项目。联合创始人Hakan Urey指出,这基本上是下一代的增强现实平视显示器,可以提供全彩双目图像和可变焦点。首先是HUD的基本架构。今天几乎所有的HUD都是以图像作为基础。这意味着它们为直视镜或微显示器创建图像,然后将虚拟图像“投影”至固定焦平面,如汽车挡风玻璃。
其他方法则采用空间光调制器(SLM),亦即略微修改的微型显示器。系统计算需要显示的全息图像,并由激光或LED照亮。SLM的优点是,其允许所有光线用于显示内容,而不是像基于图像的方法一样会格挡大量的光线。但这种方法的缺点是,计算相位全息图需要大量的计算负载。
CY Vision正在推行SLM方法,并且可以实现我们迄今为止所看过的最为优秀的性能水平。当然,他们不是第一家采用这种方法的公司,其他基于SLM的HUD技术已经进行了商业化。
CY Vision的解决方案有何不同呢?Urey解释说:“我实际上不太清楚细节,但CY Vision将其成为一种基于SLM的全彩HUD,可通过眼动追踪来计算最优的计算生成全息图,可以避免典型立体显示器常见视觉辐辏冲突问题,同时提供模拟人类视觉的图像。我不认为任何其他一种方法能够拥有我们这样的深度线索。”
CV Vision正努力开发一种可以满足未来驾驶员需求的显示解决方案,尤其是自动驾驶。HUD开发者通常将AR HUD定义成可以按照事件进程调整图像的AR HUD。例如,如果你需要在一公里远离开高速,HUD可能将出现一个小箭头。当你靠近出口时,箭头会变大,并且可能会越靠近视场中心。然而,当前的HUD无法做到这一点,无法实现开发者设想的其他AR任务。
更重要的是,现在世界将继续数字化映射的过程(有人将其称之为数字孪生),这样导航/GPS系统可以使用每一栋建筑物的数据,不再局限于街道。不用多久,你可以要求汽车系统提供5公里范围内最受好评的中餐馆,最值得前往的历史遗址,性价比最优的加油站等。当自动驾驶系统接管汽车时,你就无需一直盯着路面,而是把更多的时间留给其他事情。这意味着你可以将HUD用作社交或娱乐界面,例如进行全息视频通话等等。
这样的未来要求HUD能够根据情况改变图像的景深,并提供合适的深度线索。
CY Vision的HUD技术结合了注视点追踪器(实时感知瞳孔和注视点位置)。它同时可以创建非常精确的视差,为每只眼睛提供合适的图像。另外,基于机器学习的算法将能随时间的推移而优化系统。
跟其他所有的HUD一样,视窗与视场需要进行权衡妥协。更大的视窗意味着更小的视场,更大的视场意味着更小的视窗。两者都受图像或SLM的像素数目影响。但是,这家公司声称可以为任何一种仪表盘提供最大的视场:不到10公升的容积就可以达到20度以上的视场。
对于CY Vision的解决方案,其巧妙之处在于它能够将透镜“写入”SLM。这正是光线的转向方式,亦即焦平面和焦点的改变方式。Urey解释说:“这都是用我们定制开发的算法,以及现代GPU和FPGA/ASIC解决方案的并行处理功能实时完成。”
对于能够将光学功能写入SLM,这同时允许像差对齐,并校正由组合器(即挡风玻璃)引入的失真。通过软件的简单更改,相同的光学设计和硬件可适用于所有车型。
到目前为止,CY Visionn一直专注于显示符号系统,图标,利用计算机视觉和人工智能进行检测,并向驾驶员显示相关信息。这家公司同时根据汽车中的可用硬件(雷达,照相机,激光雷达等)来开发AR内容。他们尚未有计划进行公开演示,但已经开始与主要的OEM厂商进行概念研究,并正在向重要的汽车厂商提供私人演示。这家公司的商业模型同样非常灵活。Urey指出,尽管他们主要专注于AR HUD,但其技术同时可用于AR眼戴设备。