随着《汽车以旧换新补贴实施细则》政策自2024年4月24日发布实施,以及地方补贴政策的支持下,2024年中国新能源乘用车销量大幅增长40.7%,达到1089.9万辆。与此同时,2024年7月-2024年11月,中国新能源乘用车的渗透率连续5个月超过50%。
汽车市场已然走向下半场,以高阶智驾为代表的汽车“智能化”角逐已经拉开帷幕。
数源:乘联会
智驾的不同路径
当前,高阶自动驾驶技术的发展和市场竞争已经成为行业关注的焦点,各路玩家在不同的技术路线上做着探索。
传统的智驾系统,将自动驾驶系统划分为三层:环境感知层、决策规划层和控制执行层。每一层还可以划分为不同的模块,每个模块还可以划分为不同的子模块,整个智驾方案极为依赖于工程师通过一行行代码制定的规则,从而驯化自动驾驶车辆。
这种技术路线需要人工设计成百上千个模块,会导致整个系统非常复杂、庞大,而且其边际效应会随着智驾能力的提升,呈现几何式骤减,因为到后期需要制定的细化规则会越来越多、越来越复杂。
何小鹏给出过具体的概念:较为稳定的传统量产智驾系统,大约需要10万条人工定义的规则。一个无限接近人类司机的自动驾驶系统,大概等效于10亿条规则。
而“端到端”智驾路线是车辆将传感器采集到的信息,直接发送到一个统一的深度学习神经网络,神经网络经过处理之后,直接输出驾驶指令。优势在于不存在信息丢失、误差等问题,也不存在边际效应骤减问题,因为AI模型能够自主不断优化升级,具备更快的迭代效率。
随着特斯拉的FSD v12创新性地采用了端对端的神经网络技术,不仅提高了系统响应速度和效率,还减少了数据处理延迟。特斯拉的成功促使国内车企纷纷调整智驾团队跟进,端到端架构引爆了2024年的智驾领域。
但是,“端到端”也存在一个很大问题,就是它所依赖的深度学习神经网络是一个黑盒子,不具解释分析性,可靠性、灵活性差,工程师们没有办法对它进行系统化的解释分析,而是只能依靠推测和实验进行调整。
考虑到两条路线的成本,以及未来的技术迭代和突破空间,越来越多车企和供应商,开始转向“端到端”智驾路线。目前“端到端”分为一段式和分段式:
一段式端到端:将感知、规划、决策、执行等功能模块合成一体,由“感知”直接生成“决策和执行”,形成统一大模型。追求信息传递过程低损耗,无须程序员对所有场景提前编好应对方案,而是基于经验库找到最优答案。一段式端到端的成本非常高,需要大量的数据和算力投入,代表企业有特斯拉、理想汽车等。
分段式端到端:将自动驾驶系统的感知和决策规划两个模块分开,并在中间嵌入人工接口,以实现更灵活和可扩展的系统设计,但仍然保持端到端的整体性。好处是避免了感知模块输出的“不可观”,但代价是感知白盒过滤输出,损失了信息。本土汽车厂商2024年落地的车型,主要还是采用的两段式端到端,准则模型还没有拿掉。
各大汽车厂商“端到端”的特色
特斯拉:端对端NN
2024年3月,特斯拉先后推出FSD(Beta)12.3.2、12.3.2.1以及最新的FSD(Supervised)12.3.3版本,FSD V12创新性地采用了端对端的神经网络技术(端对端NN),感知阶段不再需要识别和标识,决策阶段也不需要事先人为编写控制规则,只需要输入大量视频交给NN学习,就能分辨出在不同情况下需要做什么。
特斯拉成为全球首个端到端神经网络量产上车的企业,实现了感知、决策、规划相融合,大幅提高了自动驾驶的感知和决策能力。
其端到端大模型是一个整合的神经网络结构,将感知、规控模块合二为一,完全基于全栈神经网络实现,直接从摄像头等传感器获取数据,通过BEV(鸟瞰图)+Transformer架构将2D图像转换为3D信息,还引入Occupancy Network增强3D空间感知,这种架构能够较好地理解车辆周围环境,并且在不依赖高精地图的情况下进行实时构图和物体定位。
算力方面,Dojo是特斯拉内部设计的超级计算平台,用于自动驾驶AI学习和视觉训练。采用特斯拉自研的AI芯片D1,D1采用台积电7nm工艺,相比通用AI芯片A100,D1是定制化专用芯片,能够更高效地处理自动驾驶相关的计算任务。
同时,特斯拉拥有大量的车辆在路上行驶,其数据收集主要依赖庞大的用户基盘。这些车辆不断收集摄像头数据等,为端到端模型提供了丰富的驾驶视频片段等数据,将驾驶知识存储在神经网络参数中,实现数据驱动的自动驾驶优化。
华为:感知神经网络GOD+决策神经网络PDP+本能安全网络
有别于特斯拉所宣传的“大一统”模型,华为ADS 3.0采用感知+决策分层的GOD+PDP架构:GOD(General Obstacle Detection)负责通用障碍物检测,PDP(Path Decision and Planning)负责路径决策和规划。同时,引入了“本能安全网络”,确保在最极端情况下系统仍能安全运行。这种分层架构使得系统能够更高效地处理感知数据,并做出更准确的决策。
图源:2024鸿蒙智行Tech Day
另外,华为ADS 3.0还推出了行业首创的路面自适应AEB功能,系统可以结合路面信息进行深度分析,并据此调整制动力度,确保车辆行驶的稳定性和安全性。
鸿蒙智行在华为秋季场景发布会现场宣布向问界、智界和享界全系车型推送ADS 3.0。
华为 ADS 3.0既是技术的端到端,在真实道路场景,也同时实现了“车位到车位”的体验端到端。在具体的应用场景上,已经具备了车位启动、路边启动、路边临停、目的地随时变更、自主过闸机、避障、掉头、绕行环岛、自动识别车位、自动泊车、代客泊车等一系列智驾能力的突破,并凭借强大的感知能力做到全国都能开、有路就能开。
到2025年,华为希望推动高速L3的商用与城区L3的试点,终极目标是实现L5级别的自动驾驶。
小鹏汽车:神经网络XNet+规控大模型XPlanner+大语言模型XBrain
2024年5月20日,小鹏汽车在520 AI DAY发布会上,正式发布了AI天玑系统,实现了端到端AI智驾大模型上车,是国内首个端到端量产上车的汽车厂商。
图源:小鹏汽车在520 AI DAY
小鹏汽车的端到端模型包括了神经网络XNet+规控大模型XPlanner+大语言模型XBrain:神经网络XNet类似于人的眼睛,主要负责感知层面的功能;规控大模型XPlanner,相当于人的肌肉和小脑直觉,负责“模块化”智驾路线中的决策规划和控制执行功能;大语言模型XBrain类似于人的大脑,赋予智能驾驶辅助系统超越“感知”的能力,能够认识待转区、潮汐车道、特殊车道、路牌文字,秒懂各种令行禁止、快慢缓急的行为指令,进而做出兼顾安全、性能的拟人驾驶决策。通过这些模型的协同工作,对感知到的信息进行理解和分析,从而制定出合理的驾驶策略。
根据小鹏汽车公布的信息,2024年第四季度,XNGP打通包括ETC收费站、停车场闸机、园区内部道路等,实现真正的“门到门”体验。所谓门到门可以进一步细化为停车位到停车位,也就是从出发地点到目的地的一键开启,实现超越L3级的自动驾驶。预计2025年,小鹏汽车将在中国实现类L4级智驾体验。
值得关注的是,P7+的智能驾驶采用全新的AI天玑5.4.0系统和独特的AI鹰眼视觉方案:搭载了2颗高性能的NVIDIA DRIVE Orin-X芯片,算力高达508TOPS,为车辆的智能驾驶功能提供了强大的计算支持;AI 鹰眼视觉方案则采用了行业首个单像素Lofic架构,可以在复杂的光照环境中提供更强的信息采集和识别能力,从而提升感知的准确性和速度。与传统的激光雷达方案相比,AI鹰眼视觉方案在逆光、夜间等环境下能够更加出色地完成任务。
理想汽车:端到端模型+VLM视觉语言模型+世界模型
理想汽车NOA的技术架构可以分为三个模型:端到端模型、VLM视觉语言模型和世界模型,端到端模型和VLM视觉语言模型在车端运行,世界模型在云端工作。其端到端模型采用一体化的OneModel,直接将传感器数据输入模型,推理完成后直接用于轨迹规划和车辆控制,过程中没有任何其他步骤。
其中车端的智驾系统又可以进一步细分为“快慢系统”,有不同的分工:系统1主要应用的就是端到端技术,处理相对简单任务为主,可以理解为人类的直觉,其能力覆盖95%的场景;系统2类似于人类的深入思考和分析,能够处理各种复杂的Corner Case,需要VLM视觉语言模型的参与,可以深度分析复杂场景再给出处理结果,比如红绿灯路口预判等场景,面对的场景可能只占所有场景的5%。
图源:理想汽车2024智能驾驶夏季发布会
计算平台硬件方面,理想汽车的AD Pro搭载地平线征程5芯片的智能驾驶系统,芯片算力达到128TOPS。AD Max使用2颗NVIDIA DRIVE Orin-X处理器,总算力508TOPS。
理想汽车的智能驾驶功能包括高速NOA,能覆盖全国高速公路、快速路和城市环线,安全接管水平高,车辆可自主选择ETC或人工车道通过收费站,实现高速和城市道路的无缝衔接;全场景辅助驾驶(LCC)不依赖导航路径,能自主识别红绿灯,做到礼让行人、避让侵入车道的障碍物,在大路口和复杂路口也能顺利通行,提升城区驾驶的舒适度;智能泊车功能强大,能应对垂直、斜列、侧方等车位,还能搞定极窄空间侧方车位、断头路车位等复杂情况,并且支持离车泊入和跨多层的代客泊车。
比亚迪:天神之眼
“天神之眼”是比亚迪推出的高阶智能驾驶辅助系统,于2023年7月3日在腾势N7智能猎跑SUV车型发布会上首发。凭借高端传感器融合、强大的中央计算平台和端到端大模型架构,“天神之眼”实现了无图城市领航(CNOA)与智能泊车等突破性功能。
比亚迪基于璇玑架构打造的整车融合感知,通过全栈自研的中央计算平台区域控制架构完成整车全传感链大融合,可实时监测全车信息、车辆状态、车主驾驶状态,使车辆拥有全场景、全天候、全地域的感知能力。同时,采用先进的端到端大模型架构,通过多传感器融合感知,实时捕捉道路环境信息,可实现复杂路口通行、红绿灯识别、自主超车、避障绕行、自主并线等一系列驾驶行为,还支持全国范围内的环岛通行、自动进入待转区等具有挑战性的驾驶功能。
硬件方面,比亚迪的高算力智驾计算平台基于高算力的AI芯片打造,如仰望U8采用2颗NVIDIA DRIVE Orin-X,算力达508TOPS,腾势Z9GT和腾势N7采用单Orin-X芯片,算力为 254TOPS。
“天神之眼”的无图城市领航(CNOA)功能于2024年12月24日实现全国开通,这意味着从一二线大城市到偏远小城,用户都能享受智能辅助。比亚迪计划将“天神之眼”系统推广至更多车型,包括中低端产品线,扩大市场覆盖,这将提升整体市场渗透率。
值得关注的是,比亚迪拥有超400万辆L2及以上车辆上路,庞大的用户基盘意味着庞大的数据,在端到端大模型下,拥有超强的智驾迭代能力,这是其他品牌所不具备的优势。
蔚来汽车:蔚来世界模型NWM
2024年7月27日,蔚来正式发布全新智能驾驶技术架构“NADArch 2.0”,并表示该技术架构在算法层升级引入其自研的蔚来世界模型NWM(NIO World Model)的端到端架构,直接从原始传感器数据生成驾驶决策,减少传统方案中的信息损耗,并且预测能力更强。
图源:NIO IN 2024蔚来创新科技日
NWM作为蔚来自主研发的多元自回归生成式具身驾驶模型,通过自监督过程进行学习,无需人工标注数据即可完成训练。其强大的数据处理能力和决策效率令人瞩目。NWM可全量理解数据、具有长时序推演和决策能力,每0.1秒会生成216种可能的轨迹,并对每一个轨迹进行评估,选出来最好的。
NWM采用了生成式模型的设计理念,这意味着它可以用3秒驾驶视频片段作为提示,生成长达 120秒的连续驾驶视频。这种能力有助于模拟各种驾驶情境,为智能驾驶系统的训练提供了丰富的素材。同时,NWM具备与生俱来的闭环仿真测试能力,可以在虚拟环境中对复杂交互场景进行全面测试,验证其性能和可靠性。这一特性不仅大大提高了测试的效率,也为智能驾驶技术的实际应用奠定了坚实的基础。
蔚来特别设计了名为“神玑 ”的智能驾驶芯片,这款芯片与NWM紧密配合,能够为智能驾驶系统提供强大的计算支持。
写在最后
值得指出的是,目前端到端技术尚处于发展早期,仍有许多痛点亟待解决。未来在端到端大模型智驾方向上,那些拥有强大数据和算力资源的厂商更可能占据优势。相信随着各大厂商的技术创新和资源投入的加速,端到端技术将更快走向成熟,让智能驾驶真正成为人们日常出行中安全、便捷且可靠的出行方式。