汽车无人驾驶传感器平台
随着高级驾驶员辅助系统 (ADAS) 系统的问世以及无人驾驶的推动与发展,汽车需要对周围的环境了如指掌。驾驶员能够感知我们周围的环境,同时做出判断,并在不同的情况下迅速反应。然而人无完人,我们会疲惫、分神,也会因为失误而犯错。为了提升安全性,汽车制造商正在设计应用于小客车的ADAS解决方案。汽车依靠各种各样的传感器来感测不同情况下复杂的周围环境。然后,这些数据将被传送给例如TITDA2x等高精密的处理器,最后被用于自动紧急刹车 (AEB),车道偏离报警 (LDW) 和盲点监测等功能。目前,用于周围环境感测的传感器主要有以下几种。
被动传感器——主要用于感测从物体上反射或发射出来的射线。
可视图像传感器——所有的成像仪都在可视光谱中运行
红外图像传感器——在可视光谱外运行。可以是近红外或热红外(远红外)。
被动传感器会受到环境的影响——不同时刻,天气等。例如,可视传感器会受到每天不同时刻可见光数量的影响。
主动传感器——通过发射出射线并测量反射信号的响应。其优势是能够随时获得测量结果,不受时间或季节的影响。
雷达——通过发射无线电波,根据从物体上反射回来的无线电波来确定这个物体的距离、方向和速度
超声波——通过发射超声波,根据从物体上反射回来的超声波来确定这个物体的距离
激光雷达——通过扫描从一个物体上反射回来的激光来确定物体的距离
飞行时间——利用摄像头测量红外光束从物体上反弹回来到传感器的时间来确定这个物体的距离
结构光——将已知光图投射到一个物体上,例如通过TI的数字光处理 (DLP) 设备进行投射。随后,摄像机将捕捉变形的光图并进行分析,以确定物体的距离。
为了在多种不同的情况下提供增强的准确度、可靠性和耐用性,通常至少需要用一种以上的传感器来观察同一场景。所有传感器技术都有其固有的限制因素和优势。不同的传感器技术可以被组合在一起,将来自同一场景下不同传感器的数据进行融合,从而提供一个更加稳定耐用的解决方案,通过数据融合比较了视图混淆。其中一个典型的示例就是可见光传感器和雷达的组合。
可见光传感器的优势包括高分辨率、拥有识别物体和对其分类的能力以及能够提供重要信息情况的功能。然而,它们的性能会受到自然光强弱以及天气(诸如下雾、雨雪)的影响。此外,例如过热等其他因素也会导致图像的质量因噪声的影响而下降。TI的处理器所提供的精密图像处理可以缓解其中的某些影响。
另一方面,雷达能够穿过雨雪,并且可以非常迅速且有效地测量距离。多普勒雷达(Doppler radar)具有额外的优势,能够检测物体的运动。然而,雷达的分辨率较低,并且不能轻易地识别物体。因此,可见光和雷达所产生数据的融合提供了一种在多种不同情况下更加稳健耐用的解决方案。
此外,不同传感器之间的成本有所差异,这也会影响到针对特定应用的最佳选择。例如,激光雷达 (LIDAR) 能够提供非常精确的距离测量功能,但是成本却比被动图像传感器贵出很多。不过,随着技术的不断发展,成本也将会持续降低,而汽车最终将在多种传感器的帮助下做到眼观六路、耳听八方。
:victory:
页:
[1]