当前位置: CompoTech China > 专题 > 专题报道 >
 

开发自驾系统,一定要知道的事!

本文作者:任苙萍       点击: 2020-05-15 15:06
前言:

特斯拉 (Tesla) 创办人 Elon Musk 最近这么吹捧他们的自动驾驶技术:相较于人类驾驶减速时只使用两个摄影头 (眼睛) 且经常分心,集成八个环景摄像头、雷达、传感器且始终保持警戒的自驾显然是"超人"(Superhuman),依旧坚持摄像头是自驾汽车所需的唯一传感器技术,只要能完全理解电脑视觉所接收图像的算法、并将其转换为 3D 可操作的数据足矣!不过,稍早就在今年 2 月底,美国国家运输安全委员会对一项涉及特斯拉 Model X 自驾的致命车祸进行为期两年调查的结果出炉,无意间又再次提醒人们自驾技术的危险性。
 
"光达"又大又贵?"混合固态"成折衷
今后数年,道路上人、车驾驶员仍将混合车阵当中,可能对 AI 检测能力做出错误假设;因此,一直有人对于特斯拉系统的常识性推理逻辑以及机器学习 (ML)/深度学习 (DL) 的强固性提出质疑,认为人工智能 (AI) 脸部识别能力其实不如人类,且只字未提光达 (LiDAR),被指控距离真正的自动驾驶还差得远!现阶段——至少在车联网 (V2X) 建置完善且可信任之前,要达到 L4 或 L5 的自驾层级,传感器融合 (Sensors Fusion) 仍是普遍共识——光达强在可"鸟瞰"全景、创建实时 3D 地图,雷达 (Radar) 擅于应对雨雪雾霾恶劣天气,尤须相辅相成。
 
图1:特斯拉官方声明——"Autopilot"(自动辅助驾驶) 需要驾驶人主动监督,并无法使车辆自动驾驶
资料来源:https://www.tesla.com/zh_TW/autopilot
 
体积大、难以无损美观地融入车体且成本高达 1 万美元,是传统机械旋转光达最被诟病之处。为此,借助半导体与光电技术取代马达驱动的 3D 固态光达 (Solid-state LiDAR) 便应声而起,有光学相控阵 (OPA) 与闪光 (Flash) 两种方式;虽有部件成本低的优势,但亦有三大软肋:1.舍去旋转机构、激光束限缩照射角度;2.需倍增光达数量才能达到 360∘全景覆盖;3.远距探测无法突破,对 L4、L5 自驾车形成障碍。于是,取巧以在镜面内部置入微机电 (MEMS) 改变光线射出角度以实现扫描的"混合固态光达"(Mixed Solid-state LiDAR),遂成折衷方案。
 
这是因为 OPA 产生的光束发散性更大,更难兼顾长距离、高分辨率和宽视场;Flash 每次发射的光线会散布整个视场,只有一小部分雷射能投射到某些特定点。随着技术演进,机械与固态逐渐走向整合:以机械光达起家的 Velodyne Lidar 公司亦投入混合固态研发,并获得全球首批自驾班车之一 EasyMile EZ10 采用;而 Quanergy 共同创办人在另立山头成立 Ouster 后,也回头感念机械光达的好。但即使是 MEMS 微型扫描镜,由于投射的雷射量有限,也有难以探测远处物体的缺憾;且光电探测器数组的每个像素都非常小,又限制了可捕捉的反射光量。
 
图2:配备 Velodyne 光达传感器的 EasyMile EZ10 自驾车,可在积雪反光的道路正常行驶
资料来源:https://velodynelidar.com/press-release/velodyne-lidar-announces-agreement-with-easymile-ez10-autonomous-vehic/
 
让光达看得更远、更清晰:拉大视场+增加光通道数
所幸,只要加大 MEMS 反射镜直径、使用大面积反射镜将大部分入射光引导到光电传感器上,就能拉大视场 (FoV)、检测远处物体。三菱电机 (Mitsubishi Electric) 日前开发一种紧凑的 MEMS 光达方案,即标榜使用水平+垂直"双轴电磁镜"来扫描反射光以生成车辆和行人的 3D 图像:±15∘水平移动、±3.4∘垂直移动,MEMS 波束结构提升到 ±6.0∘以上;经由优化电磁 MEMS 镜和光学组件 (包括多个雷射光源、光电探测器和透镜),抑制光学渐晕并避免激光束被光达的内部组件扭曲,可拥有超宽水平扫描角度,精确检测物体形状和距离。
 
与此同时,为满足高速行驶下、光接收器的高分辨率图像所需,如何引入更多信道将是关键;美信 (Maxim) MAX40026 高速比较器和 MAX40660/MAX40661 宽带互阻放大器 (TIA) 可提供两倍以上带宽,在相同尺寸的光达模块增加 33% 的通道数,表现不俗。去年,Luminar 推出一款成本不到 1,000 美元的光达系统;汽车主要供货商——博世 (Bosch),亦开发出可量产的光达传感器,可望进一步压低成本。顺带一提,Waymo 稍早推出第五代自驾系统"Waymo Driver",硬件亦包括五个自产光达,目视能力达 300 公尺。
 
"Waymo Driver"将远程和中程光达组合成一个单元,置于车顶,可提供 360∘视野;另开发位于车辆四个位置的新型周边光达,旨在提高空间分辨率和精度,特别有利于近距离物体检测和避障等低速应用。Waymo 已将新一代"Waymo Driver"集成到 Jaguar I-Pace 车辆,并将其用于数据收集以训练机器学习模型,最后一步是将 I-Pace 车辆投放到在凤凰城地区运营的 Waymo One 服务。特别的是,Waymo 去年 3 月宣布计划将这些短程光达传感器 (称为 Laser Bear Honeycomb) 出售给自驾车以外的行业。预估明年将是 3D 光达大放异彩之年。
 
图3:第五代"Waymo Driver"光达、摄像头和雷达皆具有不同视野要求,故需仔细确定硬件和外观设计的位置,以确保这些模块不会相互掣肘
资料来源:https://blog.waymo.com/2020/03/designing-5th-generation-waymo-driver.html
 
自驾平台比拼:特斯拉携自制 AI 芯片阔步独行,高通兼顾扩展&开放
特斯拉坚持自驾车无需光达的原因之一,或与他们去年释出自诩"全球最强芯片"的超强自信有关。这款号称效能是英伟达 (Nvidia) 芯片 21 倍、且开发成本更低的 AI 芯片,内嵌 12 核心 CPU、16 核心 GPU,以及两个可实时处理图像、专用于神经网络自驾运算的神经网络加速器 (NNA),刚被证实已搭载于 Model 3 车款作为"全自动驾驶电脑",且每辆车有两个芯片。虽然特斯拉强调,每个芯片都会自行评估下一步动作并各自发出信号源,只有信号一致才会执行命令,强调安全无虞;但仍有专家质疑:双芯片一旦发生信号冲突,恐会产生"决策延迟"。
 
其次,双芯片独立运算,当面临危急状况,若因芯片故障导致两个芯片信号不一,逻辑上不会采取任何行动,又如何规避伤亡?再者,若两个芯片皆不幸决策错误,电脑是否有自我审查机制?是否可用于后续优化?喝牛奶不一定要养牛,大众化平台是另一种选择;高通 (Qualcomm) 在今年美国消费性电子展 (CES) 首度面向自动驾驶推出 Snapdragon Ride 平台,内含 Snapdragon Ride Safety 系统单芯片 (SoC) 与安全加速器自动堆栈,专为 ASIL D 系统设计,拟于今年上半年供车厂和一阶供货商预开发,搭载 Snapdragon Ride 的车辆可望于 2023 年量产。
 
该平台基于可扩展和模块化的异构高性能多核 CPU、高能效 AI 和电脑视觉引擎与先进 GPU,热效率表现佳,可采用被动冷却或风冷设计、省却昂贵的液冷系统并简化车辆设计,进而降低成本、提高可靠性并扩大行驶范围。结合高通 Snapdragon Ride 自动堆栈及汽车制造商/一阶供货商的自定义算法,可加速高性能自动驾驶的部署。高通表示,虽然下一波创新浪潮应来自于 L2+ 便利型高级驾驶辅助系统 (ADAS),但 Snapdragon Ride 使用的硬件解决方案已先一步从 SoC 转变为主动安全 ADAS;以法规要求为前提,可实现全自驾系统。
 
图4:高通 Snapdragon Ride 具有高度可扩展性、开放性、完全可定制性且功耗经过高度优化,可满足从新车评价计划 (NCAP) 到L2 + 自驾需求
资料来源:高通提供
 
汽车 AI:软件和机器学习为大宗,应用程序是主角
由于智能物联网 (AIoT) 设备数量增长、互联网普及、联网车辆需求增加、交通效率的优化,加上消费者偏好高档车辆以改善驾驶体验并提人车安全等因素催化,ResearchAndMarkets 预估 2019~2027 年全球汽车 AI 市场的年复合成长率 (CAGR) 将达 39.8%,终值为 159 亿美元。其中,半自动驾驶在预测期间内增长率最高。进一步就去年数据拆解,受惠于云端部署成本下降、学习分析使用增加及云端运算和自动化需求不断增长,软件和机器学习 (ML) 在其中占据最大份额,用于信号/图像识别、驾驶员监控、避免车辆碰撞的电脑视觉增速最快。
 
他们还提到,应用程序将是汽车 AI 的主角。为因应下一代"软件定义汽车自驾车"挑战,温瑞尔 (WindRiver) 与百度已携手开发出基于 WindRiver AUTOSAR 自适应软件架构的 Apollo 自驾开放平台,支持具有安全性混合关键性的异构系统,现正处于概念验证 (PoC) 阶段。此举目的是在于:信息娱乐系统等非关安全应用的开源软件可在 Wind River Linux 执行,而诸如 VxWorks 的成熟商用实时操作系统 (RTOS) 可支持确定性、安全性至关重要的应用程序,两者使用同一架构、可无缝运行,使汽车制造商大幅节省材料清单 (BOM) 成本和车辆功耗。
 
汽车 AI 用途不仅于此,优步 (Uber) 先进技术集团 (ATG) 还采用生成对抗网络 (GAN) 进行自驾车交通轨迹预测。不过前提是:数据要是真实的。如前文所述,许多感测系统只需在交通标志作假,就能受到蒙骗;密歇根大学研究,即使是基于光达的感知系统也可被策略性欺骗,使其看到"不存在的障碍物",车辆可能因阻塞交通或突然制动而导致撞车。光达感测系统有两大部分:传感器和机器学习模型,在光达单元每秒发出数万个光信号后,机器学习模型会使用返回的脉冲来描绘车辆周围世界,攻击者可能对光信号发动干扰。
 
AI 模型缺陷太可怕!仿真系统&数据集来相助
机器学习模型易受特定信号或输入影响,例如,在交通标志上专门生成的贴纸可蒙蔽相机感知——此即所谓的"对抗性示例",这也是许多人力主须以"传感器融合"交互比对之故。另语料库的正当性也很重要,电脑视觉公司 Roboflow 用于训练自驾汽车模型的语料库遗漏了关键数据一事,便引起轩然大波;如果数百万辆汽车运行有缺陷的 AI 模型,其影响可能是毁灭性的。近期,麻省理工学院 (MIT) 发明的"VISTA"(虚拟图像自动合成与转化) 仿真系统,或能在实际上路前稍作补强,并大幅加快自驾车的测试和部署速度。
 
以往,建构用于训练和测试自驾车的仿真引擎很大部分需要依赖人工标记和绘制,但由于现实世界要复杂许多,导致虚实不匹配。MIT 的仿真引擎是由"数据驱动",只需使用道路行驶所捕获的一个小数据集,即可就真实数据合成与道路外观及场景中所有对象之距离和运动一致的新轨迹,然后使用新轨迹来渲染逼真场景。此外,有鉴于恶劣天气条件可能损坏摄像头、光达等感测能力,MIT 开始思考:与其环顾四方,何不改为专心探路?于是,开发称为"探地雷达"(GPR) 的系统;以现有技术向地下发送电磁脉冲,可藉此探测该地区土壤、岩石等特定组合。
 
长期以来,恶劣的天气和有限的传感器能见度一直是无人驾驶汽车的软肋,全球自驾方案仍难以在大雪、大雾或台风等特殊环境条件下工作。人同此心,但聪明的 Waymo 另有一套解法:公开寻求外援、发起开放数据集的挑战赛,让开发者通过参加竞赛来寻找下列问题的解决方案:
 2D 检测:给定一组摄像头图像,为场景中的对像生成一组 2D 框;
 2D 追踪:给定摄像头图像的时间顺序,生成一组 2D 框、以及框与框之间的对应关系;
 3D 检测:给定一个或多个光达测距图像和相关的摄像头图像,为场景中的对像生成一组 3D 垂直框;
 3D 追踪:给定光达和相机数据的时间序列,生成一组 3D 垂直框、以及框与框之间的对应关系;
 域适应:类似 3D 检测挑战,但提供了细分数据,其中 100 个带有 3D 框标签。
 
根据游戏规则,希望取得获奖资格的参与者将向 Waymo 授予使用其知识产权的许可,意谓:Waymo 可藉由集思广益而获得当前最佳方案!亦不失为明智之举。